成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

使用Python分析14億條數據

開發 后端
Google Ngram viewer是一個有趣和有用的工具,它使用谷歌從書本中掃描來的海量的數據寶藏,繪制出單詞使用量隨時間的變化。我決定使用 Python 和我新的數據加載庫 PyTubes 來看看重新生成上面的圖有多容易。

Google Ngram viewer是一個有趣和有用的工具,它使用谷歌從書本中掃描來的海量的數據寶藏,繪制出單詞使用量隨時間的變化。舉個例子,單詞 Python (區分大小寫):

這幅圖來自:books.google.com/ngrams/grap…,描繪了單詞 'Python' 的使用量隨時間的變化。

它是由谷歌的 n-gram 數據集驅動的,根據書本印刷的每一個年份,記錄了一個特定單詞或詞組在谷歌圖書的使用量。然而這并不完整(它并沒有包含每一本已經發布的書?。瑪祿杏谐汕习偃f的書,時間上涵蓋了從 16 世紀到 2008 年。數據集可以免費從這里下載。

我決定使用 Python 和我新的數據加載庫 PyTubes 來看看重新生成上面的圖有多容易。

挑戰

[[233566]]

1-gram 的數據集在硬盤上可以展開成為 27 Gb 的數據,這在讀入 python 時是一個很大的數據量級。Python可以輕易地一次性地處理千兆的數據,但是當數據是損壞的和已加工的,速度就會變慢而且內存效率也會變低。

總的來說,這 14 億條數據(1,430,727,243)分散在 38 個源文件中,一共有 2 千 4 百萬個(24,359,460)單詞(和詞性標注,見下方),計算自 1505 年至 2008 年。

當處理 10 億行數據時,速度會很快變慢。并且原生 Python 并沒有處理這方面數據的優化。幸運的是,numpy 真的很擅長處理大體量數據。 使用一些簡單的技巧,我們可以使用 numpy 讓這個分析變得可行。

在 python/numpy 中處理字符串很復雜。字符串在 python 中的內存開銷是很顯著的,并且 numpy 只能夠處理長度已知而且固定的字符串。基于這種情況,大多數的單詞有不同的長度,因此這并不理想。

Loading the data

下面所有的代碼/例子都是運行在 8 GB 內存 的 2016 年的 Macbook Pro。 如果硬件或云實例有更好的 ram 配置,表現會更好。

1-gram 的數據是以 tab 鍵分割的形式儲存在文件中,看起來如下: 

  1. Python 1587 4 2  
  2. Python 1621 1 1  
  3. Python 1651 2 2  
  4. Python 1659 1 1  

每一條數據包含下面幾個字段:

1. Word

2. Year of Publication

3. Total number of times the word was seen

4. Total number of books containing the word

為了按照要求生成圖表,我們只需要知道這些信息,也就是:

1. 這個單詞是我們感興趣的?

2. 發布的年份

3. 單詞使用的總次數

通過提取這些信息,處理不同長度的字符串數據的額外消耗被忽略掉了,但是我們仍然需要對比不同字符串的數值來區分哪些行數據是有我們感興趣的字段的。這就是 pytubes 可以做的工作: 

  1. import tubes  
  2. FILES = glob.glob(path.expanduser("~/src/data/ngrams/1gram/googlebooks*"))  
  3. WORD = "Python"  
  4. one_grams_tube = (tubes.Each(FILES)  
  5.     .read_files()  
  6.     .split()  
  7.     .tsv(headers=False 
  8.     .multi(lambda row: (  
  9.         row.get(0).equals(WORD.encode('utf-8')),  
  10.         row.get(1).to(int),  
  11.         row.get(2).to(int 
  12.     ))  
  13.  

差不多 170 秒(3 分鐘)之后, onegrams_ 是一個 numpy 數組,里面包含差不多 14 億行數據,看起來像這樣(添加表頭部為了說明): 

  1. ╒═══════════╤════════╤═════════╕ 
  2.  
  3. │   Is_Word │   Year │   Count │ 
  4.  
  5. ╞═══════════╪════════╪═════════╡ 
  6.  
  7. │         0 │   1799 │       2 │ 
  8.  
  9. ├───────────┼────────┼─────────┤ 
  10.  
  11. │         0 │   1804 │       1 │ 
  12.  
  13. ├───────────┼────────┼─────────┤ 
  14.  
  15. │         0 │   1805 │       1 │ 
  16.  
  17. ├───────────┼────────┼─────────┤ 
  18.  
  19. │         0 │   1811 │       1 │ 
  20.  
  21. ├───────────┼────────┼─────────┤ 
  22.  
  23. │         0 │   1820 │     ... │ 
  24.  
  25. ╘═══════════╧════════╧═════════╛  

從這開始,就只是一個用 numpy 方法來計算一些東西的問題了:

每一年的單詞總使用量

谷歌展示了每一個單詞出現的百分比(某個單詞在這一年出現的次數/所有單詞在這一年出現的總數),這比僅僅計算原單詞更有用。為了計算這個百分比,我們需要知道單詞總量的數目是多少。

幸運的是,numpy讓這個變得十分簡單: 

  1. last_year = 2008  
  2. YEAR_COL = '1'  
  3. COUNT_COL = '2'  
  4. year_totals, bins = np.histogram(  
  5.     one_grams[YEAR_COL],   
  6.     density=False,   
  7.     range=(0, last_year+1),  
  8.     bins=last_year + 1,   
  9.     weights=one_grams[COUNT_COL]  
  10.  

繪制出這個圖來展示谷歌每年收集了多少單詞:

很清楚的是在 1800 年之前,數據總量下降很迅速,因此這回曲解最終結果,并且會隱藏掉我們感興趣的模式。為了避免這個問題,我們只導入 1800 年以后的數據: 

  1. one_grams_tube = (tubes.Each(FILES)  
  2.     .read_files()  
  3.     .split()  
  4.     .tsv(headers=False 
  5.     .skip_unless(lambda row: row.get(1).to(int).gt(1799))  
  6.     .multi(lambda row: (  
  7.         row.get(0).equals(word.encode('utf-8')),  
  8.         row.get(1).to(int),  
  9.         row.get(2).to(int 
  10.     ))  
  11.  

這返回了 13 億行數據(1800 年以前只有 3.7% 的的占比)

Python 在每年的占比百分數

獲得 python 在每年的占比百分數現在就特別的簡單了。

使用一個簡單的技巧,創建基于年份的數組,2008 個元素長度意味著每一年的索引等于年份的數字,因此,舉個例子,1995 就只是獲取 1995 年的元素的問題了。

這都不值得使用 numpy 來操作: 

  1. word_rows = one_grams[IS_WORD_COL]  
  2. word_counts = np.zeros(last_year+1)  
  3. for _, yearcount in one_grams[word_rows]:  
  4.     word_counts[year] += (100*count) / year_totals[year 

繪制出 word_counts 的結果:

形狀看起來和谷歌的版本差不多

實際的占比百分數并不匹配,我認為是因為下載的數據集,它包含的用詞方式不一樣(比如:Python_VERB)。這個數據集在 google page 中解釋的并不是很好,并且引起了幾個問題:

  • 人們是如何將 Python 當做動詞使用的?
  • 'Python' 的計算總量是否包含 'Python_VERB'?等

幸運的是,我們都清楚我使用的方法生成了一個與谷歌很像的圖標,相關的趨勢都沒有被影響,因此對于這個探索,我并不打算嘗試去修復。

性能

谷歌生成圖片在 1 秒鐘左右,相較于這個腳本的 8 分鐘,這也是合理的。谷歌的單詞計算的后臺會從明顯的準備好的數據集視圖中產生作用。

舉個例子,提前計算好前一年的單詞使用總量并且把它存在一個單獨的查找表會顯著的節省時間。同樣的,將單詞使用量保存在單獨的數據庫/文件中,然后建立***列的索引,會消減掉幾乎所有的處理時間。

這次探索 確實 展示了,使用 numpy 和 初出茅廬的 pytubes 以及標準的商用硬件和 Python,在合理的時間內從十億行數據的數據集中加載,處理和提取任意的統計信息是可行的,

語言戰爭

為了用一個稍微更復雜的例子來證明這個概念,我決定比較一下三個相關提及的編程語言:Python,Pascal, 和 Perl.

源數據比較嘈雜(它包含了所有使用過的英文單詞,不僅僅是編程語言的提及,并且,比如,python 也有非技術方面的含義!),為了這方面的調整, 我們做了兩個事情:

  1. 只有首字母大寫的名字形式能被匹配(Python,不是 python)
  2. 每一個語言的提及總數已經被轉換到了從 1800 年到 1960 年的百分比平均數,考慮到 Pascal 在 1970 年***次被提及,這應該有一個合理的基準線。

結果:

對比谷歌 (沒有任何的基準線調整):

運行時間: 只有 10 分鐘多一點

代碼: gist.github.com/stestagg/91…

以后的 PyTubes 提升

在這個階段,pytubes 只有單獨一個整數的概念,它是 64 比特的。這意味著 pytubes 生成的 numpy 數組對所有整數都使用 i8 dtypes。在某些地方(像 ngrams 數據),8 比特的整型就有點過度,并且浪費內存(總的 ndarray 有 38Gb,dtypes 可以輕易的減少其 60%)。 我計劃增加一些等級 1,2 和 4 比特的整型支持(github.com/stestagg/py…)

更多的過濾邏輯 - Tube.skip_unless() 是一個比較簡單的過濾行的方法,但是缺少組合條件(AND/OR/NOT)的能力。這可以在一些用例下更快地減少加載數據的體積。

 

更好的字符串匹配 —— 簡單的測試如下:startswith, endswith, contains, 和 isoneof 可以輕易的添加,來明顯地提升加載字符串數據是的有效性。 

責任編輯:龐桂玉 來源: 數據分析與開發
相關推薦

2022-04-06 14:15:10

Python數據

2024-04-15 08:30:53

MySQLORM框架

2015-03-03 09:52:02

2021-06-16 14:59:59

網絡安全數據泄露黑客

2024-03-21 15:39:00

2020-02-06 13:48:59

Python數據Excel

2022-08-25 18:23:07

攜程HBase存儲Metrics

2023-06-18 23:13:27

MySQL服務器客戶端

2019-06-24 11:07:34

數據數據庫存儲

2018-05-14 08:33:06

比賽數據攻略

2023-07-26 08:51:08

大數據服務架構

2022-03-28 09:00:48

URLinput過濾器

2022-09-23 09:44:17

MyBatisforeach

2021-09-07 10:55:36

SQLitePythonRust

2023-02-14 07:08:42

2021-04-26 11:43:18

大數據數據分析五一

2013-01-10 12:54:29

大數據探討Twitter

2019-01-25 13:22:50

RocketMQ數據處理

2016-10-13 16:02:04

2019-10-10 16:31:51

PyCharmPythonWindows
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 午夜精品久久久久久不卡欧美一级 | 97精品超碰一区二区三区 | 欧美一区二区免费视频 | 久草在线 | 欧美专区在线 | 精品欧美一区免费观看α√ | 羞羞视频在线观看免费观看 | 国产女人与拘做视频免费 | 狠狠干综合视频 | 毛片在线看片 | 一区二区激情 | 成人妇女免费播放久久久 | 亚洲精品短视频 | a爱视频| 成人国产精品色哟哟 | 亚洲乱码国产乱码精品精的特点 | 中文字幕亚洲精品 | 国产精品中文字幕在线观看 | 国产一区二区视频在线 | 九九热精品在线 | 国产第一区二区 | 黄片毛片在线观看 | 日韩欧美一区在线 | wwwxxx日本在线观看 | 国产精品一区久久久 | 日韩欧美一区二区三区免费看 | 成人中文字幕在线 | 欧美日韩精品免费观看 | 一区二区三区国产 | 国产美女一区二区 | 精品欧美一区二区在线观看 | 一区二区三区高清 | 97精品视频在线观看 | 久久精品视频播放 | 午夜a级理论片915影院 | 国产一级在线 | 欧美一区二区三区在线看 | 欧美日韩国产中文 | 午夜精品| av在线免费观看网站 | 国产精品成av人在线视午夜片 |