成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

別老扯什么Hadoop了,你的數據根本不夠大

云計算 Hadoop
本文原名“Don’t use Hadoop when your data isn’t that big ”,出自有著多年從業經驗的數據科學家Chris Stucchio,紐約大學柯朗研究所博士后,搞過高頻交易平臺,當過創業公司的CTO,更習慣稱自己為統計學者。對了,他現在自己創業,提供數據分析、推薦優化咨詢服務,他的郵件是:stucchio@gmail.com 。

本文原名“Don’t use Hadoop when your data isn’t that big ”,出自有著多年從業經驗的數據科學家Chris Stucchio,紐約大學柯朗研究所博士后,搞過高頻交易平臺,當過創業公司的CTO,更習慣稱自己為統計學者。對了,他現在自己創業,提供數據分析、推薦優化咨詢服務,他的郵件是:stucchio@gmail.com 。

“你有多少大數據和Hadoop的經驗?”他們問我。我一直在用Hadoop,但很少處理幾TB以上的任務。我基本上只是一個大數據新手——知道概念,寫過代碼,但是沒有大規模經驗。

接下來他們會問:“你能用Hadoop做簡單的group by和sum操作嗎?”我當然會,但我會說需要看看具體文件格式。

他們給我一個U盤,里面有所有的數據,600MB,對,他們所有的數據。不知道為什么,我用pandas.read_csv(Pandas是一種Python數據分析庫)而不是Hadoop完成了這個任務后,他們顯得很不滿意。

Hadoop其實是挺局限的。它無非是運行某個通用的計算,用SQL偽代碼表示就是: SELECT G(…) FROM table GROUP BY F(…) 你只能改變G和F操作,除非要在中間步驟做性能優化(這可不怎么好玩!)。其他一切都是死的。

(關于MapReduce,之前作者寫過一篇“41個詞講清楚MapReduce”,可以參考。)

Hadoop里,所有計算都必須按照一個map、一個group by、一個aggregate或者這種計算序列來寫。這和穿上緊身衣一樣,多憋得慌啊。許多計算用其他模型其實更適合。忍受緊身衣的唯一原因就是,可以擴展到極大極大的數據集。可你的數據集實際上很可能根本遠遠夠不上那個數量級。

可是呢,因為Hadoop和大數據是熱詞,世界有一半的人都想穿上緊身衣,即使他們根本不需要。

可我的數據有好幾百MB呢!Excel都裝不下

對Excel很大可不是什么大數據。有很多好工具——我喜歡用的是基于Numpy的Pandas。它可以將幾百MB數據以高效的向量化格式加載到內存,在我已經3年的老筆記本上,一眨眼的功夫,Numpy就能完成1億次浮點計算。Matlab和R也是很棒的工具。

數百MB數據一般用一個簡單的Python腳本逐行讀取文件、處理,然后寫到了一個文件就行了。

可我的數據有10G呢!

我剛買了一臺筆記本電腦。16G內存花了141.98美元,256GB SSD多收200美元。另外,如果在Pandas里加載一個10GB的csv文件,實際在內存里并沒有那么大——你可以將 “17284932583” 這樣的數值串存為4位或者8位整數,“284572452.2435723”存為8位雙精度。

最差情況下,你還可以不同時將所有數據都一次加載到內存里。

可我的數據有100GB/500GB/1TB!

一個2T的硬盤才94.99美元,4T是169.99。買一塊,加到桌面電腦或者服務器上,然后裝上PostgreSQL。

Hadoop的適用范圍遠小于SQL和Python腳本

從計算的表達能力來說,Hadoop比SQL差多了。Hadoop里能寫的計算,在SQL或者簡單的Python腳本都可以更輕松地寫出來。

SQL是直觀的查詢語言,沒有太多抽象,業務分析師和程序員都很常用。SQL查詢往往非常簡單,而且一般也很快——只要數據庫正確地做了索引,要花幾秒鐘的查詢都不太多見。

Hadoop沒有任何索引的概念,它只知道全表掃描。而且Hadoop抽象層次太多了——我之前的項目盡在應付Java內存錯誤、內存碎片和集群競用了,實際的數據分析工作反而沒了時間。

如果你的數據結構不是SQL表的形式(比如純文本、JSON、二進制),一般寫一小段Python或者Ruby腳本按行處理更直接。保存在多個文件里,逐個處理即可。SQL不適用的情況下,從編程來說Hadoop也沒那么糟糕,但相比Python腳本仍然沒有什么優勢。

除了難以編程,Hadoop還一般總是比其他技術方案要慢。只要索引用得好,SQL查詢非常快。比如要計算join,PostgreSQL只需查看索引(如果有),然后查詢所需的每個鍵。而Hadoop呢,必須做全表掃描,然后重排整個表。排序通過多臺機器之間分片可以加速,但也帶來了跨多機數據流處理的開銷。如果要處理二進制文件,Hadoop必須反復訪問namenode。而簡單的Python腳本只要反復訪問文件系統即可。

可我的數據超過了5TB!

你的命可真苦——只能苦逼地折騰Hadoop了,沒有太多其他選擇(可能還能用許多硬盤容量的高富帥機器來扛),而且其他選擇往往貴得要命(腦海中浮現出IOE等等字樣……)。

用Hadoop唯一的好處是擴展。如果你的數據是一個數TB的單表,那么全表掃描是Hadoop的強項。此外的話,請關愛生命,盡量遠離Hadoop。它帶來的煩惱根本不值,用傳統方法既省時又省力。

原文鏈接:http://www.kankanews.com/ICkengine/archives/47621.shtml

責任編輯:王程程 來源: 看引擎
相關推薦

2018-08-06 16:04:31

數據科學家數據庫數據分析

2022-12-01 17:17:09

React開發

2014-09-24 09:40:16

大數據

2023-09-11 08:30:30

Creator工廠方法

2025-04-27 10:14:57

2015-04-28 15:03:20

大數據中小企業的痛

2016-11-10 20:50:20

微軟開源

2021-01-29 10:50:04

數據中臺數據數據管理

2011-12-31 09:11:08

OracleAMD

2017-12-28 10:44:08

JavaScript瀏覽器網頁

2014-09-29 09:38:10

BASHBUG

2022-06-14 11:15:09

代碼驅動

2015-09-18 10:01:11

2015-10-23 18:41:55

寒冬一周歪評BAT

2013-02-28 09:32:02

私有云資源池自服務

2023-06-20 09:33:52

微軟VR

2020-10-15 09:33:48

網盤

2013-12-12 10:00:03

大數據

2016-12-13 09:05:27

大數據數據分析數據可視化
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 午夜精品久久久久久久久久久久 | 免费三级黄 | 国产黑丝av | 国产一区二区三区四区 | 97精品久久 | 成人看片在线观看 | 日韩一区二区三区视频 | 亚洲视频一区二区三区 | 香蕉av免费 | 欧美日韩国产精品 | 18性欧美| 999久久久久久久久6666 | 四虎影院在线观看免费视频 | 国产精品资源在线观看 | 精品国产乱码一区二区三 | 成人做爰69片免费观看 | 欧美视频成人 | 免费成人av网站 | 香蕉国产在线视频 | 欧美激情a∨在线视频播放 成人免费共享视频 | 精品日韩在线观看 | 国产精品毛片一区二区在线看 | 成人在线观看免费爱爱 | 精品亚洲一区二区 | 亚州激情| 亚洲乱码一区二区 | 精品免费 | 国产精品国产 | avhd101在线成人播放 | 国产一区二区三区四 | 国产欧美在线视频 | 亚洲免费观看视频网站 | 一级二级三级黄色 | 伊人影院99 | 91精品国产99 | 日本aa毛片a级毛片免费观看 | 性一交一乱一透一a级 | 午夜视频免费在线观看 | 97色在线视频 | 久久久国产视频 | 国产97色 |