成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何在Java中構(gòu)建神經(jīng)網(wǎng)絡(luò)

譯文
人工智能 深度學(xué)習(xí)
人工神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的一種形式,也是現(xiàn)代人工智能的支柱之一。用戶真正掌握其工作原理的最佳方法是自己構(gòu)建一個人工神經(jīng)網(wǎng)絡(luò)。本文將介紹如何用Java構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)。

譯者 | 李睿

審校 | 重樓

人工神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的一種形式,也是現(xiàn)代人工智能的支柱之一。用戶真正掌握其工作原理的最佳方法是自己構(gòu)建一個人工神經(jīng)網(wǎng)絡(luò)。本文將介紹如何用Java構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)。

感興趣的用戶可以查閱軟件架構(gòu)師Matthew Tyson以前撰寫的名為《機(jī)器學(xué)習(xí)的風(fēng)格:神經(jīng)網(wǎng)絡(luò)簡介》文章,以了解人工神經(jīng)網(wǎng)絡(luò)如何運行的概述。本文中的示例不是一個生產(chǎn)等級的系統(tǒng),與其相反,它在一個易于理解的演示例子中展示了所有的主要組件。

一個基本的神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)是一種稱為神經(jīng)元(Neuron)的節(jié)點圖。神經(jīng)元是計算的基本單位。它接收輸入并使用每個輸入的權(quán)重、每個節(jié)點的偏差和最終函數(shù)處理器(其名稱為激活函數(shù))算法處理它們。例如圖1所示的雙輸入神經(jīng)元。

圖1 神經(jīng)網(wǎng)絡(luò)中的雙輸入神經(jīng)元

這個模型具有廣泛的可變性,將在下面演示的例子中使用這個精確的配置。

第一步是建立一個神經(jīng)元類模型,該類將保持這些值。可以在清單1中看到神經(jīng)元類。需要注意的是,這是該類的第一個版本。它將隨著添加的功能而改變。

清單1.簡單的神經(jīng)元類

class Neuron {
 Random random = new Random();
 private Double bias = random.nextDouble(-1, 1); 
 public Double weight1 = random.nextDouble(-1, 1); 
 private Double weight2 = random.nextDouble(-1, 1);

 public double compute(double input1, double input2){
 double preActivation = (this.weight1 * input1) + (this.weight2 * input2) + this.bias;
 double output = Util.sigmoid(preActivation);
 return output;
 }
 }

可以看到神經(jīng)元(Neuron)類非常簡單,有三個成員:bias、weight1和weight2。每個成員被初始化為-1到1之間的隨機(jī)雙精度。

當(dāng)計算神經(jīng)元的輸出時,遵循圖1所示的算法:將每個輸入乘以其權(quán)重,再加上偏差input1 * weight1 + input2 * weight2 + biass。這提供了通過激活函數(shù)運行的未處理計算(即預(yù)激活)。在本例中,使用Sigmoid激活函數(shù),它將值壓縮到1到1的范圍內(nèi)。清單2顯示了Util.sigmoid()靜態(tài)方法。

清單2.Sigmoid激活函數(shù)

public class Util {
 public static double sigmoid(double in){
 return 1 / (1 + Math.exp(-in));
 }
}

現(xiàn)在已經(jīng)了解了神經(jīng)元是如何工作的,可以把一些神經(jīng)元放到一個網(wǎng)絡(luò)中。然后將使用帶有神經(jīng)元列表的Network類,如清單3所示。

清單3.神經(jīng)網(wǎng)絡(luò)類

class Network {
 List<Neuron> neurons = Arrays.asList(
 new Neuron(), new Neuron(), new Neuron(), /* input nodes */
 new Neuron(), new Neuron(), /* hidden nodes */
 new Neuron()); /* output node */
 }
}

雖然神經(jīng)元的列表是一維的,但將在使用過程中將它們連接起來,使它們形成一個網(wǎng)絡(luò)。前三個神經(jīng)元是輸入,第二個和第三個是隱藏的,最后一個是輸出節(jié)點。

進(jìn)行預(yù)測

現(xiàn)在,使用這個網(wǎng)絡(luò)來做一個預(yù)測。將使用兩個輸入整數(shù)的簡單數(shù)據(jù)集和0到1的答案格式。這個例子使用體重-身高組合來猜測某人的性別,這是基于這樣的假設(shè),即體重和身高越高,則表明某人是男性。可以對任何兩個因素使用相同的公式,即單輸出概率。可以將輸入視為一個向量,因此神經(jīng)元的整體功能將向量轉(zhuǎn)換為標(biāo)量值。

網(wǎng)絡(luò)的預(yù)測階段如清單4所示。

清單4.網(wǎng)絡(luò)預(yù)測

public Double predict(Integer input1, Integer input2){
 return neurons.get(5).compute(
 neurons.get(4).compute(
 neurons.get(2).compute(input1, input2),
 neurons.get(1).compute(input1, input2)
 ),
 neurons.get(3).compute(
 neurons.get(1).compute(input1, input2),
 neurons.get(0).compute(input1, input2)
 )
 );
}

清單4顯示了將兩個輸入饋入到前三個神經(jīng)元,然后將前三個神經(jīng)元的輸出饋入到神經(jīng)元4和5,神經(jīng)元4和5又饋入到輸出神經(jīng)元。這個過程被稱為前饋。

現(xiàn)在,可以要求網(wǎng)絡(luò)進(jìn)行預(yù)測,如清單5所示。

清單5.獲取預(yù)測

Network network = new Network();
Double prediction = network.predict(Arrays.asList(115, 66));
System.out.println(“prediction: “ + prediction);

在這里肯定會得到一些結(jié)果,但這是隨機(jī)權(quán)重和偏差的結(jié)果。為了進(jìn)行真正的預(yù)測,首先需要訓(xùn)練網(wǎng)絡(luò)。

訓(xùn)練網(wǎng)絡(luò)

訓(xùn)練神經(jīng)網(wǎng)絡(luò)遵循一個稱為反向傳播的過程。反向傳播基本上是通過網(wǎng)絡(luò)向后推動更改,使輸出向期望的目標(biāo)移動。

可以使用函數(shù)微分進(jìn)行反向傳播,但在這個例子中,需要做一些不同的事情,將賦予每個神經(jīng)元“變異”的能力。在每一輪訓(xùn)練(稱為epoch)中,選擇一個不同的神經(jīng)元對其屬性之一(weight1,weight2或bias)進(jìn)行小的隨機(jī)調(diào)整,然后檢查結(jié)果是否有所改善。如果結(jié)果有所改善,將使用remember()方法保留該更改。如果結(jié)果惡化,將使用forget()方法放棄更改。

添加類成員(舊版本的權(quán)重和偏差)來跟蹤變化。可以在清單6中看到mutate()、remember()和forget()方法。

清單6.Mutate(),remember(),forget()

public class Neuron() {
 private Double oldBias = random.nextDouble(-1, 1), bias = random.nextDouble(-1, 1); 
 public Double oldWeight1 = random.nextDouble(-1, 1), weight1 = random.nextDouble(-1, 1); 
 private Double oldWeight2 = random.nextDouble(-1, 1), weight2 = random.nextDouble(-1, 1);
public void mutate(){
 int propertyToChange = random.nextInt(0, 3);
 Double changeFactor = random.nextDouble(-1, 1);
 if (propertyToChange == 0){ 
 this.bias += changeFactor; 
 } else if (propertyToChange == 1){ 
 this.weight1 += changeFactor; 
 } else { 
 this.weight2 += changeFactor; 
 };
 }
 public void forget(){
 bias = oldBias;
 weight1 = oldWeight1;
 weight2 = oldWeight2;
 }
 public void remember(){
 oldBias = bias;
 oldWeight1 = weight1;
 oldWeight2 = weight2;
 }
}

非常簡單:mutate()方法隨機(jī)選擇一個屬性,隨機(jī)選擇-1到1之間的值,然后更改該屬性。forget()方法將更改滾回舊值。remember()方法將新值復(fù)制到緩沖區(qū)。

現(xiàn)在,為了利用神經(jīng)元的新功能,我們向Network添加了一個train()方法,如清單7所示。

清單7.Network.train()方法

public void train(List<List<Integer>> data, List<Double> answers){
 Double bestEpochLoss = null;
 for (int epoch = 0; epoch < 1000; epoch++){
 // adapt neuron
 Neuron epochNeuron = neurons.get(epoch % 6);
 epochNeuron.mutate(this.learnFactor);

 List<Double> predictions = new ArrayList<Double>();
 for (int i = 0; i < data.size(); i++){
 predictions.add(i, this.predict(data.get(i).get(0), data.get(i).get(1)));
 }
 Double thisEpochLoss = Util.meanSquareLoss(answers, predictions);

 if (bestEpochLoss == null){
 bestEpochLoss = thisEpochLoss;
 epochNeuron.remember();
 } else {
 if (thisEpochLoss < bestEpochLoss){
 bestEpochLoss = thisEpochLoss;
 epochNeuron.remember();
 } else {
 epochNeuron.forget();
 }
 }
}

train()方法對數(shù)據(jù)重復(fù)1000次,并在參數(shù)中保留回答列表。這些是同樣大小的訓(xùn)練集;數(shù)據(jù)保存輸入值,答案保存已知的良好答案。然后,該方法遍歷這些答案,并得到一個值,表明網(wǎng)絡(luò)猜測的結(jié)果與已知的正確答案相比的正確率。然后,它會讓一個隨機(jī)的神經(jīng)元發(fā)生突變,如果新的測試表明這是一個更好的預(yù)測,它就會保持這種變化。

檢查結(jié)果

可以使用均方誤差(MSE)公式來檢查結(jié)果,這是一種在神經(jīng)網(wǎng)絡(luò)中測試一組結(jié)果的常用方法。可以在清單8中看到MSE函數(shù)。

清單8.均方誤差函數(shù)

public static Double meanSquareLoss(List<Double> correctAnswers, List<Double> predictedAnswers){
 double sumSquare = 0;
 for (int i = 0; i < correctAnswers.size(); i++){
 double error = correctAnswers.get(i) - predictedAnswers.get(i);
 sumSquare += (error * error);
 }
 return sumSquare / (correctAnswers.size());
}

微調(diào)系統(tǒng)

現(xiàn)在剩下的就是把一些訓(xùn)練數(shù)據(jù)輸入網(wǎng)絡(luò),并用更多的預(yù)測來嘗試。清單9顯示了如何提供訓(xùn)練數(shù)據(jù)。

清單9.訓(xùn)練數(shù)據(jù)

List<List<Integer>> data = new ArrayList<List<Integer>>();
data.add(Arrays.asList(115, 66));
data.add(Arrays.asList(175, 78));
data.add(Arrays.asList(205, 72));
data.add(Arrays.asList(120, 67));
List<Double> answers = Arrays.asList(1.0,0.0,0.0,1.0); 
Network network = new Network();
network.train(data, answers);

在清單9中,訓(xùn)練數(shù)據(jù)是一個二維整數(shù)集列表(可以把它們看作體重和身高),然后是一個答案列表(1.0表示女性,0.0表示男性)。

如果在訓(xùn)練算法中添加一些日志記錄,運行它將得到類似清單10的輸出。

清單10.記錄訓(xùn)練器

// Logging:
if (epoch % 10 == 0) System.out.println(String.format("Epoch: %s | bestEpochLoss: %.15f | thisEpochLoss: %.15f", epoch, bestEpochLoss, thisEpochLoss));

// output:
Epoch: 910 | bestEpochLoss: 0.034404863820424 | thisEpochLoss: 0.034437939546120
Epoch: 920 | bestEpochLoss: 0.033875954196897 | thisEpochLoss: 0.431451026477016
Epoch: 930 | bestEpochLoss: 0.032509260025490 | thisEpochLoss: 0.032509260025490
Epoch: 940 | bestEpochLoss: 0.003092720117159 | thisEpochLoss: 0.003098025397281
Epoch: 950 | bestEpochLoss: 0.002990128276146 | thisEpochLoss: 0.431062364628853
Epoch: 960 | bestEpochLoss: 0.001651762688346 | thisEpochLoss: 0.001651762688346
Epoch: 970 | bestEpochLoss: 0.001637709485751 | thisEpochLoss: 0.001636810460399
Epoch: 980 | bestEpochLoss: 0.001083365453009 | thisEpochLoss: 0.391527869500699
Epoch: 990 | bestEpochLoss: 0.001078338540452 | thisEpochLoss: 0.001078338540452

清單10顯示了損失(誤差偏離正右側(cè))緩慢下降;也就是說,它越來越接近做出準(zhǔn)確的預(yù)測。剩下的就是看看模型對真實數(shù)據(jù)的預(yù)測效果如何,如清單11所示。

清單11.預(yù)測

System.out.println("");
System.out.println(String.format(" male, 167, 73: %.10f", network.predict(167, 73)));
System.out.println(String.format("female, 105, 67: %.10", network.predict(105, 67))); 
System.out.println(String.format("female, 120, 72: %.10f | network1000: %.10f", network.predict(120, 72))); 
System.out.println(String.format(" male, 143, 67: %.10f | network1000: %.10f", network.predict(143, 67)));
System.out.println(String.format(" male', 130, 66: %.10f | network: %.10f", network.predict(130, 66)));

在清單11中,將訓(xùn)練好的網(wǎng)絡(luò)輸入一些數(shù)據(jù),輸出預(yù)測結(jié)果。結(jié)果如清單12所示。

清單12.訓(xùn)練有素的預(yù)測

male, 167, 73: 0.0279697143 
female, 105, 67: 0.9075809407 
female, 120, 72: 0.9075808235 
 male, 143, 67: 0.0305401413
 male, 130, 66: network: 0.9009811922

在清單12中,看到網(wǎng)絡(luò)對大多數(shù)值對(又名向量)都做得很好。它給女性數(shù)據(jù)集的估計值約為0.907,非常接近1。兩名男性顯示0.027和0.030接近0。離群的男性數(shù)據(jù)集(130,67)被認(rèn)為可能是女性,但可信度較低,為0.900。

結(jié)論

有多種方法可以調(diào)整這一系統(tǒng)上的參數(shù)。首先,訓(xùn)練運行中的epoch數(shù)是一個主要因素。epoch越多,其模型就越適合數(shù)據(jù)。運行更多的epoch可以提高符合訓(xùn)練集的實時數(shù)據(jù)的準(zhǔn)確性,但也會導(dǎo)致過度訓(xùn)練。也就是說,這是一個在邊緣情況下自信地預(yù)測錯誤結(jié)果的模型。

文章標(biāo)題:How to build a neural network in Java作者:Matthew Tyson

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2018-03-22 13:34:59

TensorFlow神經(jīng)網(wǎng)絡(luò)

2017-08-29 13:50:03

TensorFlow深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2017-03-27 16:18:30

神經(jīng)網(wǎng)絡(luò)TensorFlow人工智能

2020-08-06 10:11:13

神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)算法

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2023-06-18 23:00:39

神經(jīng)網(wǎng)絡(luò)損失函數(shù)隨機(jī)變量

2022-07-28 09:00:00

深度學(xué)習(xí)網(wǎng)絡(luò)類型架構(gòu)

2018-08-27 17:05:48

tensorflow神經(jīng)網(wǎng)絡(luò)圖像處理

2018-05-28 13:12:49

深度學(xué)習(xí)Python神經(jīng)網(wǎng)絡(luò)

2023-11-14 16:29:14

深度學(xué)習(xí)

2024-11-05 16:19:55

2017-04-26 08:31:10

神經(jīng)網(wǎng)絡(luò)自然語言PyTorch

2022-05-25 14:21:01

神經(jīng)網(wǎng)絡(luò)框架技術(shù)

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2025-02-25 14:13:31

2020-05-11 13:44:38

神經(jīng)網(wǎng)絡(luò)人工智能深度學(xué)習(xí)

2019-10-08 15:39:54

人工智能損失函數(shù)網(wǎng)絡(luò)

2018-11-28 15:39:21

人工神經(jīng)嵌入式SDK

2019-06-06 09:00:02

卷積神經(jīng)網(wǎng)絡(luò)CNNAI

2019-05-07 19:12:28

機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)Python
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 97伦理电影 | 成人黄在线观看 | 日韩中文字幕在线 | 久久99精品久久久 | 日韩男人天堂 | a黄视频| 欧美综合视频 | 国产精品视频97 | 一区二区三区精品视频 | 国产真实精品久久二三区 | 久久久中文 | 在线看无码的免费网站 | 玖操| 日韩精彩视频 | 亚洲综合天堂网 | 亚洲天堂av网 | 免费精品 | 色网站在线| 日本精品一区二区三区在线观看视频 | 国产三级精品视频 | 亚洲综合无码一区二区 | 国产亚洲精品精品国产亚洲综合 | 精品三级 | 日韩国产在线观看 | 精品香蕉一区二区三区 | 一区二区三区四区在线免费观看 | 91九色婷婷 | 亚洲欧美一区二区三区在线 | 91久久国产综合久久 | 天天操天天干天天透 | 日本一区二区不卡 | 国产专区在线 | 成人免费看片网 | 国产精品久久九九 | 国产日韩欧美精品一区二区三区 | 久久av一区二区三区 | 国产精品射 | 蜜桃av鲁一鲁一鲁一鲁 | 国产欧美一区二区三区国产幕精品 | 国产精品久久久久久久久久久新郎 | 欧美日韩视频 |