優(yōu)化Python代碼的4種方法
介紹
我是一個程序員。從大學(xué)時代開始我就一直在進行編程,而我仍然對使用簡單的Python代碼所開辟的道路之多感到驚訝。
但是我并不總是那么高效。我相信這是大多數(shù)程序員(尤其是剛起步的程序員)共有的一個特征,編寫代碼的快感始終優(yōu)先于效率和簡潔性。雖然這在我們的大學(xué)期間有效,但在專業(yè)環(huán)境中,尤其是在數(shù)據(jù)科學(xué)項目中,情況卻大相徑庭。
作為數(shù)據(jù)科學(xué)家,編寫優(yōu)化的Python代碼非常非常重要。雜亂,效率低下的代碼即浪費你的時間甚至浪費你項目的錢。經(jīng)驗豐富的數(shù)據(jù)科學(xué)家和專業(yè)人員都知道,當(dāng)我們與客戶合作時,雜亂的代碼是不可接受的。
因此,在本文中,我將借鑒我多年的編程經(jīng)驗來列出并展示四種可用于優(yōu)化數(shù)據(jù)科學(xué)項目中Python代碼的方法。
優(yōu)化是什么?
首先定義什么是優(yōu)化。我們將使用一個直觀的示例進行此操作。
這是我們的問題:
假設(shè)給定一個數(shù)組,其中每個索引代表一個城市,該索引的值代表該城市與下一個城市之間的距離。假設(shè)我們有兩個索引,我們需要計算這兩個索引之間的總距離。簡單來說,我們需要找到兩個給定索引之間距離的總和。


首先想到的是,一個簡單的FOR循環(huán)在這里可以很好地工作。但是,如果有100,000多個城市,而我們每秒接收50,000多個查詢,該怎么辦?你是否仍然認為FOR循環(huán)可以為我們的問題提供足夠好的解決方案?
FOR循環(huán)并不能提供足夠好的方案。這時候優(yōu)化就派上用場了
簡單地說,代碼優(yōu)化意味著在生成正確結(jié)果的同時減少執(zhí)行任何任務(wù)的操作數(shù)。
讓我們計算一下FOR循環(huán)執(zhí)行此任務(wù)所需的操作數(shù):

我們必須在上面的數(shù)組中找出索引1和索引3的城市之間的距離。

對于較小的數(shù)組大小,循環(huán)的性能良好
如果數(shù)組大小為100,000,查詢數(shù)量為50,000,該怎么辦?

這是一個很大的數(shù)字。如果數(shù)組的大小和查詢數(shù)量進一步增加,我們的FOR循環(huán)將花費大量時間。你能想到一種優(yōu)化的方法,使我們在使用較少數(shù)量的解決方案時可以產(chǎn)生正確的結(jié)果嗎?
在這里,我將討論一個更好的解決方案,通過使用前綴數(shù)組來計算距離來解決這個問題。讓我們看看它是如何工作的:



你能理解嗎?我們只需一次操作就可以得到相同的距離!關(guān)于此方法的最好之處在于,無論索引之間的差是1還是100,000,都只需執(zhí)行一個操作即可計算任意兩個索引之間的距離。
我創(chuàng)建了一個樣本數(shù)據(jù)集,其數(shù)組大小為100,000和50,000個查詢。你可以自己執(zhí)行代碼來比較兩者所用的時間
注意:數(shù)據(jù)集總共有50,000個查詢,你可以更改參數(shù)execute_queries以執(zhí)行最多50,000個查詢,并查看每種方法執(zhí)行任務(wù)所花費的時間。
- import time
- from tqdm import tqdm
- data_file = open('sample-data.txt', 'r')
- distance_between_city = data_file.readline().split()
- queries = data_file.readlines()
- print('SIZE OF ARRAY = ', len(distance_between_city))
- print('TOTAL NUMBER OF QUERIES = ', len(queries))
- data_file.close()
- # 分配要執(zhí)行的查詢數(shù)
- execute_queries = 2000
- print('\n\nExecuting',execute_queries,'Queries')
- # FOR循環(huán)方法
- # 讀取文件并存儲距離和查詢
- start_time_for_loop = time.time()
- data_file = open('sample-data.txt', 'r')
- distance_between_city = data_file.readline().split()
- queries = data_file.readlines()
- # 存儲距離的列表
- distances_for_loop = []
- # 計算開始索引和結(jié)束索引之間的距離的函數(shù)
- def calculateDistance(startIndex, endIndex):
- distance = 0
- for number in range(startIndex, endIndex+1, 1):
- distance += int(distance_between_city[number])
- return distance
- for query in tqdm(queries[:execute_queries]):
- query = query.split()
- startIndex = int(query[0])
- endIndex = int(query[1])
- distances_for_loop.append(calculateDistance(startIndex,endIndex))
- data_file.close()
- # 獲取結(jié)束時間
- end_time_for_loop = time.time()
- print('\n\nTime Taken to execute task by for loop :', (end_time_for_loop-start_time_for_loop),'seconds')
- # 前綴數(shù)組方法
- # 讀取文件并存儲距離和查詢
- start_time_for_prefix = time.time()
- data_file = open('sample-data.txt', 'r')
- distance_between_city = data_file.readline().split()
- queries = data_file.readlines()
- # 存儲距離列表
- distances_for_prefix_array = []
- # 創(chuàng)建前綴數(shù)組
- prefix_array = []
- prefix_array.append(int(distance_between_city[0]))
- for i in range(1, 100000, 1):
- prefix_array.append((int(distance_between_city[i]) + prefix_array[i-1]))
- for query in tqdm(queries[:execute_queries]):
- query = query.split()
- startIndex = int(query[0])
- endIndex = int(query[1])
- if startIndex == 0:
- distances_for_prefix_array.append(prefix_array[endIndex])
- else:
- distances_for_prefix_array.append((prefix_array[endIndex]-prefix_array[startIndex-1]))
- data_file.close()
- end_time_for_prefix = time.time()
- print('\n\nTime Taken by Prefix Array to execute task is : ', (end_time_for_prefix-start_time_for_prefix), 'seconds')
- # 檢查結(jié)果
- correct = True
- for result in range(0,execute_queries):
- if distances_for_loop[result] != distances_for_prefix_array[result] :
- correct = False
- if correct:
- print('\n\nDistance calculated by both the methods matched.')
- else:
- print('\n\nResults did not matched!!')
結(jié)果極大的節(jié)省了時間,這就是優(yōu)化Python代碼的重要性。我們不僅節(jié)省時間,而且還可以節(jié)省很多計算資源!
你可能想知道這些如何應(yīng)用于數(shù)據(jù)科學(xué)項目。你可能已經(jīng)注意到,很多時候我們必須對大量數(shù)據(jù)點執(zhí)行相同的查詢。在數(shù)據(jù)預(yù)處理階段尤其如此。
我們必須使用一些優(yōu)化的技術(shù)而不是基本的編程來盡可能快速高效地完成工作。因此,這里我將分享一些我用來改進和優(yōu)化Python代碼的優(yōu)秀技術(shù)
1. Pandas.apply() | 特征工程的鉆石級函數(shù)
Pandas已經(jīng)是一個高度優(yōu)化的庫,但是我們大多數(shù)人仍然沒有充分利用它?,F(xiàn)在你思考一下在數(shù)據(jù)科學(xué)中會使用它的常見地方。
我能想到的一項是特征工程,我們使用現(xiàn)有特征創(chuàng)建新特征。最有效的方法之一是使用Pandas.apply()。
在這里,我們可以傳遞用戶定義的函數(shù),并將其應(yīng)用于Pandas序列化數(shù)據(jù)的每個數(shù)據(jù)點。它是Pandas庫中很好的插件之一,因為此函數(shù)可以根據(jù)所需條件選擇性隔離數(shù)據(jù)。所以,我們可以有效地將其用于數(shù)據(jù)處理任務(wù)。
讓我們使用Twitter情緒分析數(shù)據(jù)來計算每條推文的字數(shù)。我們將使用不同的方法,例如dataframe iterrows方法,NumPy數(shù)組和apply方法。你可以從此處下載數(shù)據(jù)集(https://datahack.analyticsvidhya.com/contest/practice-problem-twitter-sentiment-analysis/?utm_source=blog&utm_medium=4-methods-optimize-python-code-data-science)。
- '''
- 優(yōu)化方法:apply方法
- '''
- # 導(dǎo)入庫
- import pandas as pd
- import numpy as np
- import time
- import math
- data = pd.read_csv('train_E6oV3lV.csv')
- # 打印頭部信息
- print(data.head())
- # 使用dataframe iterows計算字符數(shù)
- print('\n\nUsing Iterrows\n\n')
- start_time = time.time()
- data_1 = data.copy()
- n_words = []
- for i, row in data_1.iterrows():
- n_words.append(len(row['tweet'].split()))
- data_1['n_words'] = n_words
- print(data_1[['id','n_words']].head())
- end_time = time.time()
- print('\nTime taken to calculate No. of Words by iterrows :',
- (end_time-start_time),'seconds')
- # 使用Numpy數(shù)組計算字符數(shù)
- print('\n\nUsing Numpy Arrays\n\n')
- start_time = time.time()
- data_2 = data.copy()
- n_words_2 = []
- for row in data_2.values:
- n_words_2.append(len(row[2].split()))
- data_2['n_words'] = n_words_2
- print(data_2[['id','n_words']].head())
- end_time = time.time()
- print('\nTime taken to calculate No. of Words by numpy array : ',
- (end_time-start_time),'seconds')
- # 使用apply方法計算字符數(shù)
- print('\n\nUsing Apply Method\n\n')
- start_time = time.time()
- data_3 = data.copy()
- data_3['n_words'] = data_3['tweet'].apply(lambda x : len(x.split()))
- print(data_3[['id','n_words']].head())
- end_time = time.time()
- print('\nTime taken to calculate No. of Words by Apply Method : ',
- (end_time-start_time),'seconds')
你可能已經(jīng)注意到apply方法比iterrows方法快得多。其性能可媲美與NumPy數(shù)組,但apply方法提供了更多的靈活性。你可以在此處閱讀apply方法的文檔。(https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.apply.html)
2. Pandas.DataFrame.loc | Python數(shù)據(jù)處理的技巧
這是我最喜歡的Pandas庫的技巧之一。我覺得對于處理數(shù)據(jù)任務(wù)的數(shù)據(jù)科學(xué)家來說,這是一個必須知道的方法(所以幾乎每個人都是這樣!)
大多數(shù)時候,我們只需要根據(jù)某些條件來更新數(shù)據(jù)集中特定列的某些值。Pandas.DataFrame.loc為我們提供了針對此類問題的優(yōu)化的解決方案。
讓我們使用loc函數(shù)解決一個問題。你可以在此處下載將要使用的數(shù)據(jù)集(https://drive.google.com/file/d/1VwXDA27zgx5jIq8C7NQW0A5rtE95e3XI/view?usp=sharing)。
- # 導(dǎo)入庫
- import pandas as pd
- data = pd.read_csv('school.csv')
- data.head()

檢查“City”變量的各個值的頻數(shù):

現(xiàn)在,假設(shè)我們只需要排名前5位的城市,并希望將其余城市替換為“Others”(其他)城市。因此,讓我們這么寫:
- # 將熱門城市保存在列表中
- top_cities = ['Brooklyn','Bronx','Manhattan','Jamaica','Long Island City']
- # 使用loc更新目標(biāo)
- data.loc[(data.City.isin(top_cities) == False),'City'] = 'Others'
- # 各個城市的頻數(shù)
- data.City.value_counts()

Pandas來更新數(shù)據(jù)的值是非常容易的!這是解決此類數(shù)據(jù)處理任務(wù)的優(yōu)化方法。
3.在Python中向量化你的函數(shù)
擺脫慢循環(huán)的另一種方法是對函數(shù)進行向量化處理。這意味著新創(chuàng)建的函數(shù)將應(yīng)用于輸入列表,并將返回結(jié)果數(shù)組。Python中的向量化可以加速計算
讓我們在相同的Twitter Sentiment Analysis數(shù)據(jù)集對此進行驗證。
- '''
- 優(yōu)化方法:向量化函數(shù)
- '''
- # 導(dǎo)入庫
- import pandas as pd
- import numpy as np
- import time
- import math
- data = pd.read_csv('train_E6oV3lV.csv')
- # 輸出頭部信息
- print(data.head())
- def word_count(x) :
- return len(x.split())
- # 使用Dataframe iterrows 計算詞的個數(shù)
- print('\n\nUsing Iterrows\n\n')
- start_time = time.time()
- data_1 = data.copy()
- n_words = []
- for i, row in data_1.iterrows():
- n_words.append(word_count(row['tweet']))
- data_1['n_words'] = n_words
- print(data_1[['id','n_words']].head())
- end_time = time.time()
- print('\nTime taken to calculate No. of Words by iterrows :',
- (end_time-start_time),'seconds')
- # 使用向量化方法計算詞的個數(shù)
- print('\n\nUsing Function Vectorization\n\n')
- start_time = time.time()
- data_2 = data.copy()
- # 向量化函數(shù)
- vec_word_count = np.vectorize(word_count)
- n_words_2 = vec_word_count(data_2['tweet'])
- data_2['n_words'] = n_words_2
- print(data_2[['id','n_words']].head())
- end_time = time.time()
- print('\nTime taken to calculate No. of Words by numpy array : ',
- (end_time-start_time),'seconds')
難以置信吧?對于上面的示例,向量化速度提高了80倍!這不僅有助于加速我們的代碼,而且使其變得更整潔。
4. Python中的多進程
多進程是系統(tǒng)同時支持多個處理器的能力。
在這里,我們將流程分成多個任務(wù),并且所有任務(wù)都獨立運行。當(dāng)我們處理大型數(shù)據(jù)集時,即使apply函數(shù)看起來也很慢。
因此,讓我們看看如何利用Python中的多進程庫加快處理速度。
我們將隨機創(chuàng)建一百萬個值,并求出每個值的除數(shù)。我們將使用apply函數(shù)和多進程方法比較其性能:
- # 導(dǎo)入庫
- import pandas as pd
- import math
- import multiprocessing as mp
- from random import randint
- # 計算除數(shù)的函數(shù)
- def countDivisors(n) :
- count = 0
- for i in range(1, (int)(math.sqrt(n)) + 1) :
- if (n % i == 0) :
- %%time
- pool = mp.Pool(processes = (mp.cpu_count() - 1))
- answer = pool.map(countDivisors,random_data)
- pool.close()
- pool.join()
- if (n / i == i) :
- count = count + 1
- else :
- count = count + 2
- return count
- # 創(chuàng)建隨機數(shù)
- random_data = [randint(10,1000) for i in range(1,1000001)]
- data = pd.DataFrame({'Number' : random_data })
- data.shape

- %%time
- data['Number_of_divisor'] = data.Number.apply(countDivisors)

- %%time
- pool = mp.Pool(processes = (mp.cpu_count() - 1))
- answer = pool.map(countDivisors,random_data)
- pool.close()
- pool.join()

在這里,多進程比apply方法快13倍。性能可能會因不同的硬件系統(tǒng)而異,但肯定會提高性能。
結(jié)束
這絕不是詳盡的列表。還有許多其他方法和技術(shù)可以優(yōu)化Python代碼。但是我在數(shù)據(jù)科學(xué)生涯中發(fā)現(xiàn)并使用了很多這四個,相信你也會發(fā)現(xiàn)它們也很有用。