成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

淺談機器學習中的線性回歸

數據庫
線性回歸屬于監督學習,因此方法和監督學習應該是一樣的,先給定一個訓練集,根據這個訓練集學習出一個線性函數,然后測試這個函數訓練的好不好(即此函數是否足夠擬合訓練集數據),挑選出最好的函數(cost function最小)即可。

 Cost Function的用途:對假設的函數進行評價,cost function越小的函數,說明擬合訓練數據擬合的越好;

    1、最小二乘法:

     何為最小二乘法,其實很簡單。我們有很多的給定點,這時候我們需要找出一條線去擬合它,那么我先假設這個線的方程,然后把數據點代入假設的方程得到觀測值,求使得實際值與觀測值相減的平方和最小的參數。對變量求偏導聯立便可求。

      比如測定一個刀具的磨損速度,也就是說,隨著使用刀具的次數越多,刀具本身的厚度會逐漸減少,故刀具厚度與使用時間將成線性關系,假設符合f(t)=at + b(t代表時間,f(t)代表刀具本身厚度),a,b是待確定的常數,那么a、b如何確定呢?最理想的情形就是選取這樣的a、b,能使直線y = at + b 所得到的值與實際中測量到的刀具厚度完全符合,但實際上這是不可能的,因為誤差總是存在難以避免的。故因誤差的存在,使得理論值與真實值存在偏差,為使偏差最小通過偏差的平方和最小確定系數a、b,從而確定兩變量之間的函數關系f(t)= at + b。這種通過偏差的平方和為最小的條件來確定常數a、b的方法,即為最小二乘法。

    2、線性回歸:

    回歸在數學上來說是給定一個點集,能夠用一條曲線去擬合之,如果這個曲線是一條直線,那就被稱為線性回歸,如果曲線是一條二次曲線,就被稱為二次回歸.

    在研究幾個變量之間的關聯關系,特別當因變量和自變量為線性關系時,它是一種特殊的線性模型。最簡單的情形是一個自變量和一個因變量,且它們大體上有線性關系,這叫一元線性回歸,即模型為Y=a+bX+ε,這里X是自變量,Y是因變量,ε是隨機誤差。隨機誤差一般都是服從均值為0的正態分布。

    所以可以認為線性回歸就是給出一系列點用來擬合曲線  h(x)=θ+θ1X(線性和非線性其實都一個意思,都是尋找合適的參數去滿足已有數據的規律。可以通過最小二乘法),當然多維的時候也是一樣的,就是參數多了一點。

    3、對于線性回歸問題的分析流程:

     給出一個函數模型,這個函數模型有很多個未知參數,然后我們代入很多觀察數據,但是這樣代入后的方程是很難解的,于是我們通過使用求解近似解,轉化為求解誤差最小化問題。列出誤差項后,使用梯度下降或牛頓方法等求解最小值,確定未知參數。

      (1)  給出假設(hypotheses :h and parameters :θ)

            [[118565]]

     (2)根據給出的training set,學習求出θ。

           我們給出一個代價函數,其實就是最小二乘法:

          [[118566]]

    (3)找到一個θ使得J(θ)最小。

        我們要求J(Θ),但是我們不知道參數,而且總不能一個一個窮舉出來看哪個最小。因此我們用到梯度下降法(gradient descent),找到θ 使得 J(θ)最小。

    

    4、梯度下降法(gradient descent)

     梯度下降算法是一種求局部***解的方法,對于F(x),在a點的梯度是F(x)增長最快的方向,那么它的相反方向則是該點下降最快的方向,具體參考wikipedia

     原理:將函數比作一座山,我們站在某個山坡上,往四周看,從哪個方向向下走一小步,能夠下降的最快;

     注意:當變量之間大小相差很大時,應該先將他們做處理,使得他們的值在同一個范圍,這樣比較準確。

    1)首先對θ賦值,這個值可以是隨機的,也可以讓θ是一個全零的向量。

    2)改變θ的值,使得J(θ)按梯度下降的方向進行減少。

 

    描述一下梯度減少的過程,對于我們的函數J(θ)求偏導J: 

    Repeat  until convergence:{

     [[118567]]

    下面是更新的過程,也就是θi會向著梯度最小的方向進行減少。θi表示更新之前的值,-后面的部分表示按梯度方向減少的量,α表示步長,也就是每次按照梯度減少的方向變化多少。

     [[118568]] 

    }

   5、局部加權線性回歸:

     對于線性回歸問題,一般使用最小二乘法還有牛頓法啦。使用最小二乘法只能說是***,但是并不能知道置信度。還有就是有時候使用線性回歸可能導致模擬的曲線“欠擬合”,這種情況下

我們就使用局部加權線性回歸,可以比較好的模擬曲線。 就是加個權值而已

                                      [[118569]]

重新構造新的代價函數j(x)

                                 [[118570]]

我們從權值函數的表示就可以看出,離要求x遠的點,權值越小,到***基本為0,也就是說,只有要求x周圍的點起作用。 求法還是和上面一樣的。

   6、Logistic/Sigmoid Regreesion Mode:

      通過使用一個特定函數,將線性回歸問題轉化為分類問題,即通過使用這個函數使得y的值在0--1范圍之內。這個函數可以是Logistic/Sigmoid這樣的。

 其實就是把線性回歸的問題拿來做分類,將原來的值域映射到0到1之間。

原文鏈接:http://www.cnblogs.com/GuoJiaSheng/p/3928160.html

責任編輯:彭凡 來源: 博客園
相關推薦

2014-06-30 10:58:02

機器學習

2017-05-17 08:24:08

TensorFlow機器學習線性回歸

2020-12-19 10:54:25

機器學習線性回歸算法

2020-12-20 20:31:56

Python機器學習多元線性回歸

2020-07-01 08:48:01

Python機器學習工具

2020-11-10 08:37:05

Python線性回歸機器學習

2024-03-01 07:26:49

RustPolars機器學習

2014-06-19 14:14:35

機器學習

2024-10-22 10:23:58

2021-04-18 22:06:29

機器學習算法數據

2017-10-24 14:32:48

2024-02-19 15:28:33

機器學習線性降維

2014-07-03 10:05:15

機器學習

2018-05-05 07:18:52

機器學習線性代數深度學習

2017-09-01 13:19:21

機器學習Logostic回歸

2017-06-14 17:18:43

機器學習數據研究回歸

2022-05-19 12:04:07

隱私保護攻擊威脅

2025-04-27 04:02:00

機器學習模型網絡

2023-11-10 15:47:06

線性回歸內核技巧

2024-02-19 14:37:14

機器學習非線性降維
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产午夜精品久久久 | 盗摄精品av一区二区三区 | 国产精品不卡一区 | 黄网站免费在线 | 一区二区三区小视频 | 精品免费视频 | 日韩欧美国产精品综合嫩v 一区中文字幕 | 在线视频一区二区三区 | 欧美激情在线精品一区二区三区 | 免费一区二区三区在线视频 | 视频一区在线观看 | 成人精品毛片 | 国产一区二区自拍 | 国产精品久久久久久久久免费丝袜 | 欧美成人免费在线视频 | 波多野结衣一区二区 | 国产成人免费视频网站高清观看视频 | 久草热在线 | 国产精品国产精品国产专区不蜜 | 久久国产激情视频 | 日韩一区二区久久 | 青草青草久热精品视频在线观看 | 精品中文字幕一区 | 亚洲国产网址 | 天天影视网天天综合色在线播放 | 日韩精品一区二区三区在线观看 | 日韩aⅴ视频 | 日韩精品一区在线观看 | 成人1区2区| 我要看免费一级毛片 | 黄色一级在线播放 | 成人免费福利 | 欧美午夜精品 | 欧美日韩一卡二卡 | 欧美日韩一区精品 | 精品久久电影 | 国产综合av | 久久久久久久国产 | 日本一区二区三区视频在线 | 91大神在线资源观看无广告 | 天天综合日日夜夜 |