成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

選擇困難癥?一文通解如何選擇最合適的機(jī)器學(xué)習(xí)算法

開(kāi)發(fā) 開(kāi)發(fā)工具 算法
初學(xué)者面對(duì)各種機(jī)器學(xué)習(xí)算法,一個(gè)典型的問(wèn)題是:我應(yīng)該使用哪種算法?問(wèn)題的答案取決于許多因素,下面,我們一起來(lái)看。

如果你是一個(gè)初學(xué)/中等程度的數(shù)據(jù)科學(xué)家/分析師,并且想要將機(jī)器學(xué)習(xí)的算法運(yùn)用到解決你關(guān)心的問(wèn)題的上,那么這篇文章正是為你寫(xiě)的!

[[192535]] 

編譯 | 姜范波,寒小陽(yáng),錢(qián)天培

初學(xué)者面對(duì)各種機(jī)器學(xué)習(xí)算法,一個(gè)典型的問(wèn)題是:我應(yīng)該使用哪種算法?問(wèn)題的答案取決于許多因素,包括:

  • 數(shù)據(jù)的大小,質(zhì)量和性質(zhì)。
  • 可接受的計(jì)算時(shí)間。
  • 任務(wù)的緊迫性。
  • 你想用數(shù)據(jù)做什么。

即使是經(jīng)驗(yàn)豐富的數(shù)據(jù)科學(xué)家也無(wú)法在嘗試不同的算法之前,就斷定哪種算法會(huì)是***的。在此我們并非倡導(dǎo)一蹴而就的方法,但是我們希望根據(jù)一些明確的因素,提供一些關(guān)于優(yōu)先嘗試哪些算法的指導(dǎo)。

一、機(jī)器學(xué)習(xí)算法小抄表

機(jī)器學(xué)習(xí)算法小抄表

這張機(jī)器學(xué)習(xí)算法小抄表幫助你從各種機(jī)器學(xué)習(xí)算法中完成選擇,以找到適合你的具體問(wèn)題的算法。本文將詳細(xì)介紹如何使用這份小抄表。

由于該小抄表是專(zhuān)為入門(mén)級(jí)數(shù)據(jù)科學(xué)家和分析師設(shè)計(jì)的,所以在討論算法時(shí),我們將作出一些簡(jiǎn)化的假設(shè)。

這里推薦的算法來(lái)自于一些數(shù)據(jù)科學(xué)家、機(jī)器學(xué)習(xí)專(zhuān)家和開(kāi)發(fā)人員的編譯反饋和經(jīng)驗(yàn)指導(dǎo)。 有幾個(gè)問(wèn)題我們還沒(méi)有達(dá)成統(tǒng)一——對(duì)于這些問(wèn)題,我們?cè)噲D突出共同點(diǎn)并調(diào)和差異。

隨著我們的庫(kù)不斷增長(zhǎng)以包含一套更完整的方法,其他算法也會(huì)被陸續(xù)添加進(jìn)來(lái)。

二、如何使用小抄表

將圖表上的路徑和算法標(biāo)簽解讀為“如果需要 <路徑標(biāo)簽> 則使用 <算法>”。 例如:

  • 如果需要<約減維度>,則使用<主成分分析>。
  • 如果需要<快速的數(shù)字預(yù)測(cè)>,則使用<決策樹(shù)>或<邏輯回歸>。
  • 如果需要<分層結(jié)果>,則使用<層次聚類(lèi)>。

有時(shí)候會(huì)有多個(gè)分支適用,而有時(shí)候一個(gè)也沒(méi)有。重要的是,你要記住,這些路徑旨在作為經(jīng)驗(yàn)法則建議,因此有些建議并不準(zhǔn)確。 與我共同討論的幾位數(shù)據(jù)科學(xué)家說(shuō),找到***算法的唯一方法就是嘗試所有的算法。

三、機(jī)器學(xué)習(xí)算法的類(lèi)型

本節(jié)提供廣為流行的機(jī)器學(xué)習(xí)類(lèi)型的概述。 如果你已經(jīng)熟悉這些算法,并希望繼續(xù)討論特定算法,則可以跳過(guò)本節(jié)并轉(zhuǎn)到下面的“何時(shí)使用特定算法”。

1. 監(jiān)督學(xué)習(xí)(Supervised learning)

監(jiān)督的學(xué)習(xí)算法基于一組樣本進(jìn)行預(yù)測(cè)。例如,它可以使用歷史售價(jià)來(lái)估計(jì)未來(lái)售價(jià)。在監(jiān)督學(xué)習(xí)里,輸入變量包含帶標(biāo)簽的訓(xùn)練數(shù)據(jù)和你感興趣的某個(gè)輸出變量。通過(guò)某種算法分析訓(xùn)練數(shù)據(jù),就是一個(gè)學(xué)習(xí)將輸入映射到輸出的函數(shù)的過(guò)程。這個(gè)推斷函數(shù)對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行泛化,即可預(yù)測(cè)未知情況下的結(jié)果,將新的未知輸入映射到輸出。

  • 分類(lèi):當(dāng)數(shù)據(jù)用于預(yù)測(cè)分類(lèi)變量時(shí),監(jiān)督學(xué)習(xí)也稱(chēng)為分類(lèi)。如將標(biāo)簽或指示符,像狗/貓分配給一張圖片就是這種情況。當(dāng)只有兩個(gè)標(biāo)簽時(shí)稱(chēng)為二分類(lèi)。當(dāng)有兩類(lèi)以上時(shí),稱(chēng)為多分類(lèi)。
  • 回歸:當(dāng)預(yù)測(cè)連續(xù)值時(shí),就是一個(gè)回歸問(wèn)題。
  • 預(yù)測(cè):這是根據(jù)過(guò)去和現(xiàn)在的數(shù)據(jù)對(duì)未來(lái)進(jìn)行預(yù)測(cè)的過(guò)程。最常用來(lái)分析趨勢(shì)。一個(gè)常見(jiàn)的例子是根據(jù)今年和前幾年的銷(xiāo)售情況估計(jì)下一年的銷(xiāo)售額。

2. 半監(jiān)督學(xué)習(xí)(Semi-supervised learning)

有監(jiān)督學(xué)習(xí)的挑戰(zhàn)是標(biāo)注數(shù)據(jù)的過(guò)程可能既昂貴又耗時(shí)。 如果標(biāo)簽有限,我們可以使用未標(biāo)記的樣本來(lái)增強(qiáng)有監(jiān)督學(xué)習(xí)。 因?yàn)樵谶@種情況下機(jī)器沒(méi)有被完全監(jiān)督,所以我們說(shuō)是它是半監(jiān)督的。 在半監(jiān)督學(xué)習(xí)里,我們同時(shí)使用未標(biāo)記數(shù)據(jù)與少量標(biāo)簽數(shù)據(jù),從而提高學(xué)習(xí)準(zhǔn)確性。

3. 無(wú)監(jiān)督學(xué)習(xí)(Unsupervised learning)

執(zhí)行無(wú)監(jiān)督學(xué)習(xí)時(shí),機(jī)器得到的是完全未標(biāo)記的數(shù)據(jù)。這一算法常用于發(fā)現(xiàn)基礎(chǔ)數(shù)據(jù)的內(nèi)在模式,如聚類(lèi)結(jié)構(gòu),低維流形或稀疏樹(shù)/圖。

  • 聚類(lèi):對(duì)一組數(shù)據(jù)樣本做分組,使相似的樣本歸入一個(gè)組(或一個(gè)集群)中(根據(jù)某些標(biāo)準(zhǔn))。 這通常用于將整個(gè)數(shù)據(jù)集分成幾組,以便在每個(gè)組中進(jìn)行分析,幫助用戶(hù)找到它們的內(nèi)在模式。
  • 維度約減:減少需要考慮的變量數(shù)量。在許多應(yīng)用中,原始數(shù)據(jù)具有非常高的維度特征,并且一些特征是冗余的或與任務(wù)無(wú)關(guān)的。降低維度有助于找到真實(shí)的,潛在的關(guān)系。

4. 增強(qiáng)學(xué)習(xí)(Reinforcement learning)

增強(qiáng)學(xué)習(xí)基于環(huán)境的反饋,達(dá)到分析和優(yōu)化代理(agent)行為的目的。機(jī)器嘗試不同的場(chǎng)景來(lái)發(fā)現(xiàn)哪些行為產(chǎn)生***的回報(bào),而不是被動(dòng)接受行動(dòng)指令。試錯(cuò)和延遲獎(jiǎng)勵(lì)將強(qiáng)化學(xué)習(xí)與其他技術(shù)區(qū)分開(kāi)來(lái)。

四、選擇算法時(shí)的注意事項(xiàng)

選擇算法時(shí),請(qǐng)務(wù)必考慮這些方面:準(zhǔn)確度,訓(xùn)練時(shí)間和易用性。許多用戶(hù)將準(zhǔn)確度放在***位,而初學(xué)者則傾向?qū)W⒂谒麄冏盍私獾乃惴ㄉ稀?/p>

拿到數(shù)據(jù)集時(shí),首先要考慮的是如何獲得結(jié)果,先不管這些結(jié)果怎么樣。初學(xué)者傾向于選擇易于實(shí)現(xiàn)的算法,并可以快速獲得結(jié)果。只要能夠把這個(gè)當(dāng)作整個(gè)過(guò)程的***步,這樣做沒(méi)什么不好。一旦獲得一些結(jié)果并熟悉數(shù)據(jù)后,你可以花更多時(shí)間,使用更復(fù)雜的算法來(lái)加強(qiáng)對(duì)數(shù)據(jù)的理解,從而進(jìn)一步改進(jìn)結(jié)果。

即使在這個(gè)階段,拿到***精度的方法可能還不是***的算法,因?yàn)樗惴ㄍǔP枰恼{(diào)整和廣泛的訓(xùn)練才能獲得***的性能。

五、何時(shí)使用特定的算法

更仔細(xì)地查看各個(gè)算法可以幫助了解它們的功能和使用方法。下文提供了更多的細(xì)節(jié),并給出了什么時(shí)候使用特定算法的提示,可以與小抄表對(duì)照著看。

1. 線(xiàn)性回歸(Linear regression)和邏輯回歸(Logistic regression)

線(xiàn)性回歸

線(xiàn)性回歸

邏輯回歸

邏輯回歸

線(xiàn)性回歸是用于建模連續(xù)因變量y與一個(gè)或多個(gè)預(yù)測(cè)變量X之間的關(guān)系的方法。 y和X之間的關(guān)系可以線(xiàn)性建模為y =βTX+ε,給定訓(xùn)練集{xi,yi} Ni = 1 ,(譯注:此處公式請(qǐng)查看原文,copy到word時(shí)變形了,下文各數(shù)學(xué)符號(hào)和公式同)參數(shù)向量β可以學(xué)習(xí)得到。

如果因變量不是連續(xù)的而是分類(lèi)的,則可以使用對(duì)數(shù)變換將線(xiàn)性回歸轉(zhuǎn)換為邏輯回歸。邏輯回歸是一種簡(jiǎn)單、快速而強(qiáng)大的分類(lèi)算法。這里我們討論二分類(lèi)的情況,其中因變量y只取二進(jìn)制值{yi∈(-1,1)} Ni = 1(它可以容易地?cái)U(kuò)展到多類(lèi)分類(lèi)問(wèn)題)。

在邏輯回歸中,我們使用不同的假設(shè)類(lèi)來(lái)嘗試預(yù)測(cè)給定示例屬于“1”類(lèi)的概率,而不是它屬于“-1”類(lèi)的概率。具體來(lái)說(shuō),我們將嘗試學(xué)習(xí)以下形式的函數(shù):p(yi = 1 | xi)=σ(βTxi)和p(yi = -1 | xi)= 1-σ(βTxi)。這里 σ(x)= 1/(1 + exp(-x))是S形函數(shù)。給定訓(xùn)練樣例{xi,yi} Ni = 1,參數(shù)向量β可以通過(guò)求給定數(shù)據(jù)集的β的對(duì)數(shù)***似然值來(lái)得到。

SAS中的線(xiàn)性回歸

SAS中的線(xiàn)性回歸

SAS中的邏輯回歸

SAS中的邏輯回歸

2. 線(xiàn)性支持向量機(jī)(Linear SVM)和內(nèi)核支持向量機(jī)(Kernel SVM)

內(nèi)核技巧用于將非線(xiàn)性可分離函數(shù)映射到更高維度的線(xiàn)性可分離函數(shù)中。 支持向量機(jī)(SVM)找到由超平面的法向量w和偏差b表示的分類(lèi)器。 這個(gè)超平面(邊界)將不同的類(lèi)用盡可能大的邊距分隔開(kāi)來(lái)。問(wèn)題就轉(zhuǎn)化為約束優(yōu)化問(wèn)題:

內(nèi)核技巧用于將非線(xiàn)性可分離函數(shù)映射到更高維度的線(xiàn)性可分離函數(shù)中

內(nèi)核技巧用于將非線(xiàn)性可分離函數(shù)映射到更高維度的線(xiàn)性可分離函數(shù)中

內(nèi)核技巧用于將非線(xiàn)性可分離函數(shù)映射到更高維度的線(xiàn)性可分離函數(shù)中

當(dāng)各類(lèi)之間線(xiàn)性不可分離時(shí),可以使用內(nèi)核技巧將非線(xiàn)性可分離空間映射到更高維度的線(xiàn)性可分離空間。

當(dāng)大多數(shù)因變量是數(shù)字時(shí),邏輯回歸和SVM應(yīng)該是分類(lèi)的***個(gè)嘗試。這些模型易于實(shí)現(xiàn),其參數(shù)易調(diào),性能也相當(dāng)不錯(cuò)。所以這些模型適合初學(xué)者。

3. 樹(shù)(Trees)和樹(shù)的組合(Ensemble trees)

樹(shù)(Trees)和樹(shù)的組合(Ensemble trees)

決策樹(shù),隨機(jī)森林和梯度提升決策樹(shù)都是基于決策樹(shù)的算法。決策樹(shù)有許多變體,但它們都做同樣的事情——將特征空間細(xì)分為具有相同標(biāo)簽的區(qū)域。決策樹(shù)易于理解和實(shí)施。然而,當(dāng)非常深入地窮盡分支時(shí),可能會(huì)過(guò)擬合。隨機(jī)森林和梯度提升決策樹(shù)是使用樹(shù)算法同時(shí)實(shí)現(xiàn)良好準(zhǔn)確性、克服過(guò)擬合問(wèn)題的兩種流行方式。

4. 神經(jīng)網(wǎng)絡(luò)(Neural networks)和深度學(xué)習(xí)(Deep learning)

神經(jīng)網(wǎng)絡(luò)(Neural networks)和深度學(xué)習(xí)(Deep learning)

20世紀(jì)80年代中期,由于并行和分布式處理能力,神經(jīng)網(wǎng)絡(luò)蓬勃發(fā)展。但是,由于廣泛用于優(yōu)化神經(jīng)網(wǎng)絡(luò)參數(shù)的反向傳播訓(xùn)練算法對(duì)之無(wú)效,這一領(lǐng)域的研究受阻。而支持向量機(jī)(SVM)等簡(jiǎn)單模型,可以通過(guò)簡(jiǎn)單訓(xùn)練即可解決凸優(yōu)化問(wèn)題,逐漸取代神經(jīng)網(wǎng)絡(luò)在機(jī)器學(xué)習(xí)中的位置。

近年來(lái),新的、改進(jìn)的訓(xùn)練技術(shù),如無(wú)監(jiān)督的預(yù)訓(xùn)練和分層貪婪訓(xùn)練,復(fù)蘇了人們對(duì)神經(jīng)網(wǎng)絡(luò)的興趣。 越來(lái)越強(qiáng)大的計(jì)算能力,如圖形處理單元(GPU)和大規(guī)模并行處理(MPP),也激發(fā)了神經(jīng)網(wǎng)絡(luò)的復(fù)興。神經(jīng)網(wǎng)絡(luò)的復(fù)興研究導(dǎo)致了具有數(shù)千層的模型的發(fā)明。

一個(gè)神經(jīng)網(wǎng)絡(luò)

一個(gè)神經(jīng)網(wǎng)絡(luò)

換句話(huà)說(shuō),淺層神經(jīng)網(wǎng)絡(luò)已經(jīng)演變成深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。深層神經(jīng)網(wǎng)絡(luò)對(duì)于有監(jiān)督學(xué)習(xí)已經(jīng)非常成功。當(dāng)用于語(yǔ)音和圖像識(shí)別時(shí),深度學(xué)習(xí)堪比人類(lèi),甚至比人類(lèi)做得更好。應(yīng)用于無(wú)監(jiān)督的學(xué)習(xí)任務(wù),如特征提取,只需少量的人為干預(yù),深度學(xué)習(xí)即可從原始圖像或語(yǔ)音中提取出特征。

神經(jīng)網(wǎng)絡(luò)由三部分組成:輸入層,隱層和輸出層。訓(xùn)練樣本定義了輸入和輸出層。當(dāng)輸出層是分類(lèi)變量時(shí),神經(jīng)網(wǎng)絡(luò)可以用來(lái)解決分類(lèi)問(wèn)題。當(dāng)輸出層是連續(xù)變量時(shí),神經(jīng)網(wǎng)絡(luò)可以用來(lái)做回歸。當(dāng)輸出層與輸入層相同時(shí),神經(jīng)網(wǎng)絡(luò)可以用來(lái)提取內(nèi)在特征。隱層的數(shù)量定義了模型的復(fù)雜性和建模能力。

5. K-means / K-modes, 高斯混合模型聚類(lèi)(GMM clustering)

高斯混合模型

高斯混合模型

高斯混合模型

K-means / k-modes、GMM聚類(lèi)旨在將n個(gè)觀察值分為k個(gè)群集。 K-means定義硬分配:樣本將與且僅與一個(gè)集群相關(guān)聯(lián)。而GMM為每個(gè)樣本定義一個(gè)軟分配,每個(gè)樣本具有與每個(gè)簇相關(guān)聯(lián)的概率。當(dāng)給定簇k的數(shù)量時(shí),兩種算法都簡(jiǎn)單且夠快。

SAS可視分析中的聚類(lèi)

SAS可視分析中的聚類(lèi)

一個(gè)DBSCAN圖像

一個(gè)DBSCAN圖像

當(dāng)沒(méi)有給出簇k的數(shù)量時(shí),可以通過(guò)密度擴(kuò)散連接樣本來(lái)使用DBSCAN(基于密度的空間聚類(lèi))。

6. 層級(jí)聚類(lèi)(Hierarchical clustering)

層級(jí)聚類(lèi)(Hierarchical clustering)

層級(jí)聚類(lèi)可以使用樹(shù)結(jié)構(gòu)(樹(shù)形圖)來(lái)可視化層級(jí)劃分。它不需要輸入聚類(lèi)的數(shù)量,并且可以使用不同的K來(lái)以不同的粒度(即,可以細(xì)化/粗化的簇)來(lái)查看分區(qū)(簇)。

7. 主成分分析(PCA),奇異值分解(SVD)和隱狄利克雷劃分(LDA)

我們通常不想將大量的特征直接扔到機(jī)器學(xué)習(xí)算法中,因?yàn)橐恍┨卣骺赡苁遣幌嚓P(guān)的,或者“固有的”維度可能小于特征的數(shù)量。主成分分析(PCA),奇異值分解(SVD)和隱狄利克雷劃分(LDA)均可用于降維。

PCA是一種無(wú)監(jiān)督的聚類(lèi)方法,將原始數(shù)據(jù)空間映射到較低維數(shù)空間,同時(shí)保留盡可能多的信息。 PCA基本上找到一個(gè)最保留數(shù)據(jù)方差的子空間,其中子空間由數(shù)據(jù)協(xié)方差矩陣的主要特征向量定義。

SVD與PCA有親緣關(guān)系,因?yàn)橹行臄?shù)據(jù)矩陣(特征與樣本)的SVD提供的主要左奇異向量也定義了與PCA相同的子空間。然而,SVD是一種更通用的技術(shù),因?yàn)樗部梢宰鯬CA做不了的事情。例如,一個(gè)用戶(hù)-電影的矩陣,通過(guò)SVD能夠提取可以在推薦系統(tǒng)中使用的用戶(hù)畫(huà)像和電影畫(huà)像。此外,SVD也被廣泛應(yīng)用于自然語(yǔ)言處理(NLP)中,充當(dāng)主題建模工具,這一應(yīng)用也被稱(chēng)為潛在語(yǔ)義分析。

自然語(yǔ)言處理中一個(gè)相關(guān)技術(shù)是隱狄利克雷劃分(LDA)。 LDA是概率主題模型,正如高斯混合模型(GMM)將連續(xù)數(shù)據(jù)分解為高斯密度那樣,LDA能將文檔分解為主題。與GMM不同的是,LDA模型離散數(shù)據(jù)(文檔中的單詞),并且限制了主題根據(jù)Dirichlet分布先驗(yàn)分布。

六、結(jié)論

這是一個(gè)易于遵循的工作流程。記住以下要點(diǎn):

  • 定義問(wèn)題。 你想解決什么問(wèn)題?
  • 從簡(jiǎn)單的算法開(kāi)始。 熟悉數(shù)據(jù)和基線(xiàn)結(jié)果。
  • 然后嘗試更復(fù)雜的東西。

SAS可視化數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)平臺(tái)為初學(xué)者提供一個(gè)學(xué)習(xí)和應(yīng)用機(jī)器學(xué)習(xí)解決問(wèn)題的良好平臺(tái)。

來(lái)源:http://blogs.sas.com/content/subconsciousmusings/2017/04/12/machine-learning-algorithm-use/

【本文是51CTO專(zhuān)欄機(jī)構(gòu)大數(shù)據(jù)文摘的原創(chuàng)譯文,微信公眾號(hào)“大數(shù)據(jù)文摘( id: BigDataDigest)”】

     大數(shù)據(jù)文摘二維碼

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來(lái)源: 51CTO專(zhuān)欄
相關(guān)推薦

2022-09-18 21:18:43

架構(gòu)Redis

2024-05-23 16:48:42

機(jī)器學(xué)習(xí)算法人工智能

2022-03-17 17:08:05

機(jī)器學(xué)習(xí)算法類(lèi)型

2020-05-26 18:35:00

機(jī)器學(xué)習(xí)人工智能AI

2017-05-25 11:14:21

機(jī)器學(xué)習(xí)算法神經(jīng)網(wǎng)絡(luò)

2017-05-25 13:37:46

機(jī)器學(xué)習(xí)算法神經(jīng)網(wǎng)絡(luò)

2023-11-28 12:08:56

機(jī)器學(xué)習(xí)算法人工智能

2017-10-17 12:49:18

無(wú)線(xiàn)AP無(wú)線(xiàn)AP

2018-06-19 10:38:42

數(shù)據(jù)中心遷移時(shí)機(jī)

2020-12-31 09:39:39

應(yīng)用圖像格式SVGOMG

2020-11-06 13:09:59

的機(jī)器學(xué)習(xí)

2017-02-28 14:17:03

機(jī)器學(xué)習(xí)算法

2013-12-16 13:55:42

ESXi存儲(chǔ)

2015-12-02 11:31:49

SCv2000企業(yè)存儲(chǔ)

2022-03-01 20:41:00

機(jī)器學(xué)習(xí)特征人工智能

2018-07-25 15:43:27

機(jī)器學(xué)習(xí)框架開(kāi)發(fā)

2009-09-22 10:20:00

專(zhuān)線(xiàn)接入

2019-06-03 13:15:51

AI

2018-07-13 09:29:34

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 亚洲精品中文在线观看 | 久久最新精品 | 欧美一区二区三区四区视频 | 在线观看成人小视频 | av国产精品 | 久久精品国产久精国产 | 久久精品这里 | 中文字幕免费在线观看 | 午夜精品久久久久久久久久久久 | 热久久999| 青青草综合 | 国产日韩欧美中文字幕 | 国产精品久久二区 | 99久久夜色精品国产亚洲96 | 亚洲情视频 | 91原创视频在线观看 | 毛片网站免费观看 | 凹凸日日摸日日碰夜夜 | 久久久亚洲综合 | av网站在线看 | 欧美日韩亚洲一区二区 | 欧美精品在线免费观看 | 亚洲成人精品在线 | h视频在线免费 | 狠狠干av | 中文字幕一区在线 | 亚洲精品自拍 | 黄色免费观看网站 | 日韩国产在线观看 | 欧美福利| 国产亚洲二区 | 国产99视频精品免费视频7 | 国产成人99久久亚洲综合精品 | 国产精品久久久久久久久婷婷 | 欧美日韩精品 | 成人a免费| 久草成人| 一级黄色生活视频 | 久久久人成影片一区二区三区 | 欧美黑人国产人伦爽爽爽 | 亚洲天堂一区 |