成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

DJL 如何正確打開 [ 深度學(xué)習(xí) ]

人工智能 深度學(xué)習(xí)
為了減少Java開發(fā)者學(xué)習(xí)深度學(xué)習(xí)的成本,AWS構(gòu)建了一個(gè)Deep Java Library(DJL),一個(gè)為Java開發(fā)者定制的開源深度學(xué)習(xí)框架,其為開發(fā)者對接主流深度學(xué)習(xí)框架,提供了一個(gè)接口。

 [[350239]]

本文轉(zhuǎn)載自微信公眾號(hào)「小明菜市場」,作者小明菜市場。轉(zhuǎn)載本文請聯(lián)系小明菜市場公眾號(hào)。

前言

很長時(shí)間,Java都是一個(gè)相當(dāng)受歡迎的企業(yè)編程語言,其框架豐富,生態(tài)完善。Java擁有龐大的開發(fā)者社區(qū),盡管深度學(xué)習(xí)應(yīng)用不斷推進(jìn)和演化,但是相關(guān)的深度學(xué)習(xí)框架對于Java來說相當(dāng)?shù)南∩伲F(xiàn)如今,主要模型都是Python編譯和訓(xùn)練,對于Java開發(fā)者來說,如果想要學(xué)習(xí)深度學(xué)習(xí),就需要接受一門新的語言的洗禮。為了減少Java開發(fā)者學(xué)習(xí)深度學(xué)習(xí)的成本,AWS構(gòu)建了一個(gè)Deep Java Library(DJL),一個(gè)為Java開發(fā)者定制的開源深度學(xué)習(xí)框架,其為開發(fā)者對接主流深度學(xué)習(xí)框架,提供了一個(gè)接口。

什么是深度學(xué)習(xí)

在開始之前,先了解機(jī)器學(xué)習(xí)和深度學(xué)習(xí)基礎(chǔ)概念。機(jī)器學(xué)習(xí)是一個(gè)利用統(tǒng)計(jì)學(xué)知識(shí),把數(shù)據(jù)輸入到計(jì)算機(jī)中進(jìn)行訓(xùn)練并完成特定目標(biāo)任務(wù)的過程,這種歸納學(xué)習(xí)方法可以讓計(jì)算機(jī)學(xué)習(xí)一些特征并進(jìn)行一系列復(fù)雜的任務(wù),比如識(shí)別照片中的物體。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,主要側(cè)重于對于人工神經(jīng)網(wǎng)絡(luò)的開發(fā),人工神經(jīng)網(wǎng)絡(luò)是通過研究人腦如何學(xué)習(xí)和實(shí)現(xiàn)目標(biāo)的過程中,歸納出的一套計(jì)算邏輯。通過模擬部分人腦神經(jīng)間信息傳遞的過程,從而實(shí)現(xiàn)各種復(fù)雜的任務(wù),深度學(xué)習(xí)中的深度來源于會(huì)在人工神經(jīng)網(wǎng)絡(luò)中編制出,構(gòu)建出許多層,從而進(jìn)一步對數(shù)據(jù)信息進(jìn)行更為深層次的傳導(dǎo)。

訓(xùn)練 MNIST 手寫數(shù)字識(shí)別

項(xiàng)目配置

利用 gradle 配置引入依賴包,用DJL的api包和basicdataset包來構(gòu)建神經(jīng)網(wǎng)絡(luò)和數(shù)據(jù)集,這個(gè)案例,使用 MXNet作為深度學(xué)習(xí)引擎,所以引入mxnet-engine和mxnet-native-auto兩個(gè)包,依賴如下

  1. plugins { 
  2.     id 'java' 
  3. repositories {                            
  4.     jcenter() 
  5. dependencies { 
  6.     implementation platform("ai.djl:bom:0.8.0"
  7.     implementation "ai.djl:api" 
  8.     implementation "ai.djl:basicdataset" 
  9.     // MXNet 
  10.     runtimeOnly "ai.djl.mxnet:mxnet-engine" 
  11.     runtimeOnly "ai.djl.mxnet:mxnet-native-auto" 

NDArry 和 NDManager

NDArray 是 DJL 存儲(chǔ)數(shù)據(jù)結(jié)構(gòu)和數(shù)學(xué)運(yùn)算的基本結(jié)構(gòu),一個(gè)NDArry表達(dá)了一個(gè)定長的多維數(shù)組,NDArry的使用方法,類似于Python的numpy.ndarry。NDManager是NDArry的管理者,其負(fù)責(zé)管理NDArry的產(chǎn)生和回收過程,這樣可以幫助我們更好的對Java內(nèi)存進(jìn)行優(yōu)化,每一個(gè)NDArry都會(huì)由一個(gè)NDManager創(chuàng)造出來,同時(shí)他們會(huì)在NDManager關(guān)閉時(shí)一同關(guān)閉,

Model

在 DJL 中,訓(xùn)練和推理都是從 Model class 開始構(gòu)建的,我們在這里主要訓(xùn)練過程中的構(gòu)建方法,下面我們?yōu)?Model 創(chuàng)建一個(gè)新的目標(biāo),因?yàn)? Model 也是繼承了 AutoClosable 結(jié)構(gòu)體,用一個(gè) try block實(shí)現(xiàn)。

  1. try (Model model = Model.newInstance()) { 
  2.     ... 
  3.     // 主體訓(xùn)練代碼 
  4.     ... 

準(zhǔn)備數(shù)據(jù)

MNIST 數(shù)據(jù)庫包含大量的手寫數(shù)字的圖,通常用來訓(xùn)練圖像處理系統(tǒng),DJL已經(jīng)把MNIST的數(shù)據(jù)收集到了 basicdataset 數(shù)據(jù)里,每個(gè) MNIST 的圖的大小是 28 * 28, 如果有自己的數(shù)據(jù)集,同樣可以使用同理來收集數(shù)據(jù)。

數(shù)據(jù)集導(dǎo)入教程 http://docs.djl.ai/docs/development/how_to_use_dataset.html#how-to-create-your-own-dataset

  1. int batchSize = 32; // 批大小 
  2. Mnist trainingDataset = Mnist.builder() 
  3.         .optUsage(Usage.TRAIN) // 訓(xùn)練集 
  4.         .setSampling(batchSize, true
  5.         .build(); 
  6. Mnist validationDataset = Mnist.builder() 
  7.         .optUsage(Usage.TEST) // 驗(yàn)證集 
  8.         .setSampling(batchSize, true
  9.         .build(); 

這段代碼分別制作了訓(xùn)練和驗(yàn)證集,同時(shí)我們也隨機(jī)的排列了數(shù)據(jù)集從而更好的訓(xùn)練,除了這些配置以外,也可以對圖片進(jìn)行進(jìn)一步的設(shè)置,例如設(shè)置圖片大小,歸一化處理。

制作 model 建立 block

當(dāng)數(shù)據(jù)集準(zhǔn)備就緒以后,就可以構(gòu)建神經(jīng)網(wǎng)絡(luò),在DJL 中,神經(jīng)網(wǎng)絡(luò)是由 Block 代碼塊構(gòu)成的,一個(gè)Block是一個(gè)具備多種神經(jīng)網(wǎng)絡(luò)特性的結(jié)構(gòu),他們可以代表一個(gè)操作神經(jīng)網(wǎng)絡(luò)的一部分,甚至一個(gè)完整的神經(jīng)網(wǎng)絡(luò),然后 block 就可以順序的執(zhí)行或者并行。同時(shí) block 本身也可以帶參數(shù)和子block,這種嵌套結(jié)構(gòu)可以快速的幫助更新一個(gè)可維護(hù)的神經(jīng)網(wǎng)絡(luò),在訓(xùn)練過程中,每個(gè)block附帶參數(shù)也會(huì)實(shí)時(shí)更新,同時(shí)也會(huì)更新其子 block。當(dāng)我們構(gòu)建這些 block 的過程中,最簡單的方式就是把他們一個(gè)一個(gè)嵌套起來,直接使用準(zhǔn)備好的 DJL的 Block 種類,我們就可以快速制作各種神經(jīng)網(wǎng)絡(luò)。

block 變體

根據(jù)幾種基本的神經(jīng)網(wǎng)絡(luò)工作模式,我們提供幾種Block的變體,

  1. SequentialBlock 是為了輸出作為下一個(gè)block的輸入繼續(xù)執(zhí)行到底。
  2. parallelblock 是用于將一個(gè)輸入并行輸入到每一個(gè)子block中,同時(shí)也將輸出結(jié)果根據(jù)特定的合并方程合并起來。
  3. lambdablock 是幫助用戶進(jìn)行快速操作的一個(gè)block,其中不具備任何參數(shù),所以在訓(xùn)練的過程中沒有任何部分在訓(xùn)練過程中更新。

構(gòu)建多層感知機(jī) MLP 神經(jīng)網(wǎng)絡(luò)

我們構(gòu)建一個(gè)簡單的多層感知機(jī)神經(jīng)網(wǎng)絡(luò),多層感知機(jī)是一個(gè)簡單的前向型神經(jīng)網(wǎng)絡(luò),只包含幾個(gè)全連接層,構(gòu)建這個(gè)網(wǎng)路可以直接使用 sequentialblock

  1. int input = 28 * 28; // 輸入層大小 
  2. int output = 10; // 輸出層大小 
  3. int[] hidden = new int[] {128, 64}; // 隱藏層大小 
  4. SequentialBlock sequentialBlock = new SequentialBlock(); 
  5. sequentialBlock.add(Blocks.batchFlattenBlock(input)); 
  6. for (int hiddenSize : hidden) { 
  7.     // 全連接層 
  8.     sequentialBlock.add(Linear.builder().setUnits(hiddenSize).build()); 
  9.     // 激活函數(shù) 
  10.     sequentialBlock.add(activation); 
  11. sequentialBlock.add(Linear.builder().setUnits(output).build()); 

可以使用直接提供好的 MLP Block

  1. Block block = new Mlp( 
  2.         Mnist.IMAGE_HEIGHT * Mnist.IMAGE_WIDTH, 
  3.         Mnist.NUM_CLASSES, 
  4.         new int[] {128, 64}); 

訓(xùn)練

使用如下幾個(gè)步驟,

完成一個(gè)訓(xùn)練過程初始化:我們會(huì)對每一個(gè)Block的參數(shù)進(jìn)行初始化,初始化每個(gè)參數(shù)的函數(shù)都是由設(shè)定的 initializer決定的。前向傳播:這一步把輸入數(shù)據(jù)在神經(jīng)網(wǎng)絡(luò)中逐層傳遞,然后產(chǎn)生輸出數(shù)據(jù)。計(jì)算損失:我們會(huì)根據(jù)特定的損失函數(shù) loss 來計(jì)算輸出和標(biāo)記結(jié)果的偏差。反向傳播:在這一步中,利用損失反向求導(dǎo)計(jì)算出每一個(gè)參數(shù)的梯度。更新權(quán)重,會(huì)根據(jù)選擇的優(yōu)化器,更新每一個(gè)在 Block 上的參數(shù)的值。

精簡

DJL 利用了 Trainer 結(jié)構(gòu)體精簡了整個(gè)過程,開發(fā)者只需要?jiǎng)?chuàng)建Trainer 并指定對應(yīng)的initializer,loss,optimizer即可,這些參數(shù)都是由TrainingConfig設(shè)定,來看參數(shù)的設(shè)置。TrainingListener 訓(xùn)練過程設(shè)定的監(jiān)聽器,可以實(shí)時(shí)反饋每個(gè)階段的訓(xùn)練結(jié)果,這些結(jié)果可以用于記錄訓(xùn)練過程或者幫助 debug 神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中遇到的問題。用戶可以定制自己的 TrainingListener 來訓(xùn)練過程進(jìn)行監(jiān)聽

  1. DefaultTrainingConfig config = new DefaultTrainingConfig(Loss.softmaxCrossEntropyLoss()) 
  2.     .addEvaluator(new Accuracy()) 
  3.     .addTrainingListeners(TrainingListener.Defaults.logging()); 
  4. try (Trainer trainer = model.newTrainer(config)){ 
  5.     // 訓(xùn)練代碼 

訓(xùn)練產(chǎn)生以后,可以定義輸入的 Shape,之后可以調(diào)用 git函數(shù)進(jìn)行訓(xùn)練,結(jié)果會(huì)保存在本地目錄下

  1. /* 
  2.  * MNIST 包含 28x28 灰度圖片并導(dǎo)入成 28 * 28 NDArray。 
  3.  * 第一個(gè)維度是批大小, 在這里我們設(shè)置批大小為 1 用于初始化。 
  4.  */ 
  5. Shape inputShape = new Shape(1, Mnist.IMAGE_HEIGHT * Mnist.IMAGE_WIDTH); 
  6. int numEpoch = 5; 
  7. String outputDir = "/build/model"
  8.  
  9. // 用輸入初始化 trainer 
  10. trainer.initialize(inputShape); 
  11.  
  12. TrainingUtils.fit(trainer, numEpoch, trainingSet, validateSet, outputDir, "mlp"); 

輸出的結(jié)果圖

  1. [INFO ] - Downloading libmxnet.dylib ... 
  2. [INFO ] - Training on: cpu(). 
  3. [INFO ] - Load MXNet Engine Version 1.7.0 in 0.131 ms. 
  4. Training:    100% |████████████████████████████████████████| Accuracy: 0.93, SoftmaxCrossEntropyLoss: 0.24, speed: 1235.20 items/sec 
  5. Validating:  100% |████████████████████████████████████████| 
  6. [INFO ] - Epoch 1 finished. 
  7. [INFO ] - Train: Accuracy: 0.93, SoftmaxCrossEntropyLoss: 0.24 
  8. [INFO ] - Validate: Accuracy: 0.95, SoftmaxCrossEntropyLoss: 0.14 
  9. Training:    100% |████████████████████████████████████████| Accuracy: 0.97, SoftmaxCrossEntropyLoss: 0.10, speed: 2851.06 items/sec 
  10. Validating:  100% |████████████████████████████████████████| 
  11. [INFO ] - Epoch 2 finished.NG [1m 41s] 
  12. [INFO ] - Train: Accuracy: 0.97, SoftmaxCrossEntropyLoss: 0.10 
  13. [INFO ] - Validate: Accuracy: 0.97, SoftmaxCrossEntropyLoss: 0.09 
  14. [INFO ] - train P50: 12.756 ms, P90: 21.044 ms 
  15. [INFO ] - forward P50: 0.375 ms, P90: 0.607 ms 
  16. [INFO ] - training-metrics P50: 0.021 ms, P90: 0.034 ms 
  17. [INFO ] - backward P50: 0.608 ms, P90: 0.973 ms 
  18. [INFO ] - step P50: 0.543 ms, P90: 0.869 ms 
  19. [INFO ] - epoch P50: 35.989 s, P90: 35.989 s 

訓(xùn)練結(jié)束以后,就可以對模型進(jìn)行識(shí)別了和使用了。

關(guān)于作者

我是小小,一個(gè)生于二線城市活在一線城市的小小,本期結(jié)束,我們下期再見。

 

責(zé)任編輯:武曉燕 來源: 小明菜市場
相關(guān)推薦

2023-01-06 08:24:00

PandasPython

2024-09-13 15:24:20

深度學(xué)習(xí)自動(dòng)微分

2010-01-28 09:44:08

C++應(yīng)用程序

2017-05-17 15:09:06

深度學(xué)習(xí)人工智能

2016-12-27 14:06:36

Python代碼基礎(chǔ)

2023-08-17 14:22:17

深度學(xué)習(xí)機(jī)器學(xué)習(xí)

2017-08-03 11:00:20

2016-12-12 08:48:24

2021-07-01 08:00:00

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)架構(gòu)

2021-03-08 11:28:59

人工智能深度學(xué)習(xí)Python

2017-03-18 16:28:40

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2010-01-13 10:45:44

Visual C++

2017-06-05 16:17:50

深度學(xué)習(xí)算法神經(jīng)網(wǎng)絡(luò)

2018-06-16 23:11:35

2019-08-19 09:10:14

人工智能深度學(xué)習(xí)技術(shù)

2019-04-16 09:27:46

2022-03-22 07:37:04

FeignSpringRibbon

2017-09-20 18:20:24

深度學(xué)習(xí)圖像處理心臟病

2020-08-20 10:14:43

深度學(xué)習(xí)人工智能數(shù)據(jù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 麻豆av电影网 | 成人在线免费看 | 337p日本欧洲亚洲大胆鲁鲁 | 午夜小电影| 精品在线看 | 久久国产精品-国产精品 | 在线观看国产视频 | 国产伦一区二区三区久久 | 一区二区三区中文字幕 | 成人小视频在线观看 | 国产视频线观看永久免费 | 亚洲成人av在线播放 | 欧美综合一区二区三区 | 日韩久久精品 | 一区| 7777在线| 免费欧美 | 久久久国产一区二区三区 | 日本中文字幕在线观看 | 老司机67194精品线观看 | 男人天堂久久 | 成人毛片一区二区三区 | 日韩影院一区 | av夜夜操| 久久久久久久久久一区二区 | 国产精品99久久久久久久vr | 日韩视频在线免费观看 | 欧美一区二区三区久久精品 | 九色porny自拍视频 | 欧美日韩在线播放 | 日韩av一区二区在线 | 国产91在线播放精品91 | 日本欧美在线观看视频 | 国产一区二区三区免费观看视频 | 91精品久久久久久久久99蜜臂 | 欧美精品一区二区三区蜜桃视频 | 久久99精品国产 | 久久久国产一区二区 | 99精品免费| 日韩精品一区二区三区视频播放 | 视频一区欧美 |