數據科學家都應該知道這5個概率分布
概率分布就像3D眼鏡。它們使熟練的數據科學家能夠識別完全隨機變量中的模式。
在某種程度上,大多數數據科學或機器學習技能都是基于對數據概率分布的某些假設。
這使得概率知識成為統計學家構建工具箱的基礎。如果你正在思考如何成為一名數據科學家,那么這是***步。
廢話少說,讓我們開門見山吧!
什么是概率分布?
在概率論和統計學中,隨機變量是一個可以隨機取不同值的變量,比如“我看到的下一個人的身高”或“我下一個拉面碗里廚師頭發的數量”。
給定一個隨機變量X,我們想描述它取哪個值。更重要的是,我們想要描述變量取某個值x的可能性有多大。
例如,如果X是“我女朋友養了多少只貓”,那么這個數字可能是1,甚至可以是5或10。
當然,一個人不可能擁有負數的貓。
因此我們希望用一種明確的數學方法來表示變量X可以取的每一個可能的值,以及事件(X= x)的可能性。
為了做到這一點,我們定義了一個函數P,使得P(X = x)是變量X值為x的概率。
我們也可以用P(X < x)或者P(X > x)來代替離散值。這非常重要。
P是變量的密度函數,它表征變量的分布。
隨著時間的推移,科學家們已經意識到,自然界和現實生活中的許多事物往往表現相似,變量共享一個分布,或具有相同的密度函數(或類似的函數)。
要使P成為一個實際的密度函數,需要一些條件。
- P(X =x) <= 1 對于任意值X, P(X =x)必須小于等于1
- P(X =x) >= 0 對于任意值X, P(X =x)必須大于等于0
- 對于任意值X,P(X =x) 所有值的和為1(X取任意值的概率,加起來等于1)
離散與連續隨機變量分布
隨機變量可以分為兩組:離散隨機變量和連續隨機變量。
離散隨機變量
離散變量有一組離散的可能值,每個值的概率都是非零的。
例如,當我們拋硬幣時,如果我們說
- X = " 1如果硬幣是正面,0如果是反面"
P(X = 1) = P(X = 0) = 0.5
但是請注意,離散集不一定是有限的。
幾何分布,事件發生的概率為p,試驗k次才得到***次成功的概率:

k可以取任何非負的正整數。
注意所有可能值的概率之和仍然是1。
連續隨機變量
如果說
- X =“從我頭上隨機拔下的一根頭發的長度,以毫米為單位(沒有舍入)”
X可以取哪些值?我們知道負數在這里沒有任何意義。
但是,如果你說的是1毫米,而不是1.1853759……或者類似的東西,我要么懷疑你的測量技能,要么懷疑你的測量報告錯誤。
連續隨機變量可以取給定(連續)區間內的任何值。
如果X為連續性隨機變量,則用f(x)表示X的概率分布密度函數。
用P(a < X < b)表示X位于值a和b之間的概率。
為了得到X取任一指定實數a的概率,需要把X的密度函數從a積分到b。
現在您已經知道了概率分布是什么,讓我們來學習一些最常見的分布!
一、伯努利概率分布
伯努利分布的隨機變量是最簡單的隨機變量之一。
它表示一個二進制事件:“這件事發生”vs“這件事沒有發生”,并以值p作為唯一的參數,表示事件發生的概率。
伯努利分布的隨機變量B的密度函數為:
- P(B = 1) = p, P(B =0)= (1- p)
這里B=1表示事件發生了,B=0表示事件沒有發生。
注意這兩個概率加起來是1,因此不可能有其他值。
二、均勻概率分布
均勻隨機變量有兩種:離散隨機變量和連續隨機變量。
離散均勻分布將取(有限的)一組值S,并為每個值分配1/n的概率,其中n是S中的元素數量。
這樣,如果變量Y在{1,2,3}中是均勻的,那么每一個值出現的概率都是33%。
骰子就是一個非常典型的離散均勻隨機變量,典型骰子有一組值{1,2,3,4,5,6},元素數量為6,每個值出現的概率是1/6。
連續均勻分布只取兩個值a和b作為參數,并在它們之間的區間內為每個值分配相同的密度。
這意味著Y在一個區間(從c到d)取值的概率與它的大小相對整個區間(從b到a)的大小成正比。
因此,如果Y在a和b之間均勻分布,則

這樣,如果Y是1和2之間的均勻隨機變量,
- P(1 < X < 2)=1, P(1 < X < 1.5) = 0.5
Python的隨機包的隨機方法就采樣了一個在0到1之間均勻分布的連續變量。
有趣的是,可以證明,在給定均勻隨機值生成器和一些微積分的情況下,可以對任何其他分布進行采樣。
三、正態概率分布

正態分布變量在自然界中很常見,它們是常態,這就是這個名字的由來。
如果你把你所有的同事召集起來,測量他們的身高,或者給他們稱重,然后用結果繪制一個直方圖,結果很可能接近正態分布。
如果你取任意一個隨機變量的樣本,對這些測量值取平均值,重復這個過程很多次,這個平均值也會有一個正態分布。這個事實很重要,它被稱為統計學基本定理。
正態分布變量:
- 呈對稱鐘形曲線, 以均值為中心(通常稱為μ)。
- 可以取實空間上的所有值,正態曲線由均數所在處開始,分別向左右兩側逐漸均勻下降。標準差σ決定了分布的幅度。
- 幾乎無處不在
大多數情況下,如果你測量任何經驗數據,并且它是對稱的,一般可假設它是正態分布。
例如,擲K個骰子,然后把結果相加,就會得到正態分布。
四、對數正態分布概率分布

對數正態概率分布是正態概率分布中較少見的一類。
如果變量Y = log(X)遵循正態分布,則稱變量X為對數正態分布。
在直方圖中,對數正態分布是不對稱的,標準差σ越大分布越不對稱。
我認為對數正態分布值得一提,因為大多數以貨幣為基礎的變量都是這樣的。
如果你看與錢有關的任何變量的概率分布,比如
- 某銀行最近一次轉賬的金額。
- 華爾街***成交量。
- 公司特定季度收益。
它們通常不會是正態概率分布,更接近于對數正態隨機變量。
(如果你能想到你在工作中遇到的任何其他對數正態變量,請在評論中發表你的看法!尤其是財務以外的事情)。
五、指數概率分布

指數概率分布也隨處可見,與泊松分布概率概念緊密相連。
泊松分布直接從維基百科中剽竊而來,它是“一個事件以恒定的平均速率連續獨立地發生的過程”。
這意味著,如果:
- 你有很多事情要做。
- 它們以一定的速度發生(不隨時間改變)。
- 任何一個成功的事件都不應該影響另一個成功的事件。
泊松分布可能是發送到服務器的請求、發生在超市的交易、或者在某個湖中捕魚的鳥。
想象一下頻率為λ的泊松分布(比如,事件每秒發生一次)。
指數隨機變量模擬事件發生后,下一個事件發生所需的時間。
有趣的是,在泊松分布中,事件可以發生在任何時間間隔內0到∞之間的任何地方(概率遞減)。
這意味著無論你等待多久,事件發生的可能性都不是零。這也意味著它可能在很短的時間內發生很多次。
在課堂上,我們常開玩笑說公交車到站是泊松分布。我認為,當你給一些人發送WhatsApp消息時的響應時間也符合這個標準。
λ參數調節活動的頻率。它將使事件實際發生所需的預期時間以某個值為中心。
這意味著,如果我們知道每15分鐘就有一輛出租車經過我們的街區,即使理論上我們可以永遠等下去,我們極有可能等不到30分鐘。
數據科學中的指數概率分布
這是指數分布隨機變量的密度函數:

假設你有一個變量的樣本,想看看它是否可以用指數分布變量來建模。
***λ參數可以很容易地估計為采樣值平均值的倒數。
指數變量非常適合建模任何罕見但巨大的離群值。
這是因為它們可以取任何非負的值,但以較小的值為中心,隨著值的增長頻率降低。
在特別是異常繁重的樣本中,你可能想要估計λ中位數而不是平均值, 因為中位數對異常值更為穩健。在這一點上,你的利益可能會有所不同,所以對它持保留態度。
結論
總而言之,作為數據科學家,我認為學習基礎知識非常重要。
概率和統計可能不像深度學習或無監督機器學習那么浮華,但它們是數據科學的基石,更是機器學習的基石。
根據我的經驗,提供具有特性的機器學習模型,而不知道他們遵循哪種分布是一個糟糕的選擇。
記住指數分布和正態分布的普遍性,以及較罕見的對數正態分布也是很好的。
在訓練機器學習模型時,了解它們的特性、用途和表現將扭轉格局。在進行任何類型的數據分析時,將它們牢記于心通常也是有好處的!