如何進(jìn)行AdaNet工具的分析,很多新手對(duì)此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。
創(chuàng)新互聯(lián)公司專注于網(wǎng)站建設(shè),為客戶提供成都網(wǎng)站設(shè)計(jì)、成都網(wǎng)站建設(shè)、網(wǎng)頁(yè)設(shè)計(jì)開發(fā)服務(wù),多年建網(wǎng)站服務(wù)經(jīng)驗(yàn),各類網(wǎng)站都可以開發(fā),品牌網(wǎng)站設(shè)計(jì),公司官網(wǎng),公司展示網(wǎng)站,網(wǎng)站設(shè)計(jì),建網(wǎng)站費(fèi)用,建網(wǎng)站多少錢,價(jià)格優(yōu)惠,收費(fèi)合理。
AdaNet,這是一個(gè)基于TensorFlow的輕量級(jí)框架,可以通過最少的專家干預(yù)自動(dòng)學(xué)習(xí)高質(zhì)量的模型。 AdaNet以谷歌最新的強(qiáng)化學(xué)習(xí)和基于進(jìn)化算法的AutoML為基礎(chǔ),在提供學(xué)習(xí)保證的同時(shí)實(shí)現(xiàn)快速靈活的模型構(gòu)建。而且,AdaNet是一個(gè)通用框架,它不僅可以學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)架構(gòu),還可以模型集成以獲得更好的模型。
AdaNet易于使用,可以構(gòu)筑高質(zhì)量的模型,幫助機(jī)器學(xué)習(xí)從業(yè)者節(jié)省選擇最佳神經(jīng)網(wǎng)絡(luò)架構(gòu)的時(shí)間,并能夠自適應(yīng)實(shí)現(xiàn)將子網(wǎng)絡(luò)集成學(xué)習(xí)為新的網(wǎng)絡(luò)架構(gòu)的方法。
AdaNet能夠添加不同深度和寬度的子網(wǎng)絡(luò),以創(chuàng)建多樣化的集成,并可以在參數(shù)數(shù)量和模型性能之間方便做出權(quán)衡。
AdaNet自適應(yīng)地增長(zhǎng)了神經(jīng)網(wǎng)絡(luò)的集合。在每次迭代中,它測(cè)量每個(gè)候選者的集成損失,并選擇最佳的一個(gè)進(jìn)入下一次迭代。
快速且易于使用
AdaNet實(shí)現(xiàn)了TensorFlow Estimator接口,通過封裝訓(xùn)練、評(píng)估、預(yù)測(cè)和模型導(dǎo)出,大大簡(jiǎn)化了機(jī)器學(xué)習(xí)編程。它集成了開源工具,如 TensorFlow Hub modules, TensorFlow Model Analysis, 和 Google Cloud’s Hyperparameter Tuner。分布式訓(xùn)練的支持可顯著縮短訓(xùn)練時(shí)間,并能與可用的CPU和加速器(例如GPU)進(jìn)行線性擴(kuò)展。
AdaNet在CIFAR-100上訓(xùn)練結(jié)果,x軸代表訓(xùn)練step數(shù),y軸代表精度。藍(lán)線是訓(xùn)練集上的準(zhǔn)確度,紅線是測(cè)試集上的性能。每隔一百萬step就加入一個(gè)新的子網(wǎng)絡(luò),最終提高整體的性能。灰線和綠線是在添加新子網(wǎng)之前的精度。
AdaNet的學(xué)習(xí)保證Learning Guarantees
構(gòu)建神經(jīng)網(wǎng)絡(luò)集成有幾個(gè)挑戰(zhàn):比如要考慮的最佳子網(wǎng)架構(gòu)是什么?是否要重用相同的架構(gòu)還是鼓勵(lì)模型多樣性?雖然具有更多參數(shù)的復(fù)雜子網(wǎng)將傾向于在訓(xùn)練集上表現(xiàn)更好,但由于其更大的復(fù)雜性,推廣性能可能不好。這些挑戰(zhàn)源于如何評(píng)估模型性能??梢酝ㄟ^將訓(xùn)練集樣本分割來評(píng)估,但這樣做會(huì)減少可用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的樣本數(shù)量。
AdaNet的做法(源自論文“AdaNet: Adaptive Structural Learning of Artificial Neural Networks” at ICML 2017)是為了優(yōu)化平衡集合在訓(xùn)練集上的表現(xiàn)及其推廣到看不見的數(shù)據(jù)的能力之間的權(quán)衡的目標(biāo)。直覺上是指只有當(dāng)新加入的子網(wǎng)絡(luò)改善整體訓(xùn)練損失而不會(huì)影響其推廣能力時(shí)才將其加入。
這項(xiàng)學(xué)習(xí)保證意味著:
1)集合的泛化誤差受其訓(xùn)練誤差和模型復(fù)雜性的限制。
2)通過優(yōu)化此目標(biāo),直接最小化此限制。
優(yōu)化此目標(biāo)的一個(gè)實(shí)際好處是,它不需要訓(xùn)練樣本集專門劃出一部分子集來評(píng)估選擇要添加到集合中的候選子網(wǎng),況且可以使用更多的訓(xùn)練數(shù)據(jù)來訓(xùn)練子網(wǎng)。
要了解更多信息,請(qǐng)瀏覽有關(guān)AdaNet優(yōu)化目標(biāo)的教程:
https://github.com/tensorflow/adanet/tree/v0.1.0/adanet/examples/tutorials/adanet_objective.ipynb
用戶自定義擴(kuò)展
AdaNet不僅提供了常用的模型架構(gòu)供研究人員使用,同時(shí)允許用戶將自己定義的網(wǎng)絡(luò)加入進(jìn)來,用戶可以使用adanet.subnetwork.Builder加入使用TensorFlow API(如tf.layers)定義的網(wǎng)絡(luò)架構(gòu),定義自己的AdaNet。
使用TensorFlow構(gòu)建模型的用戶可以輕松將TensorFlow代碼轉(zhuǎn)換為AdaNet子網(wǎng),使用adanet.Estimator提高模型性能,同時(shí)獲得學(xué)習(xí)保證。AdaNet將探索他們定義的候選子網(wǎng)的搜索空間,并學(xué)習(xí)整合子網(wǎng)。
在這個(gè)例子中,使用了NASNet-A CIFAR架構(gòu)的開源實(shí)現(xiàn),將其轉(zhuǎn)換為子網(wǎng),在八次AdaNet迭代后對(duì)CIFAR-10最先進(jìn)的結(jié)果進(jìn)行了改進(jìn)。不僅提高進(jìn)行而且新模型使用的參數(shù)更少。
用戶還可以使用tf.contrib.estimator.Heads將自己的自定義損失函數(shù)用作AdaNet目標(biāo)函數(shù)的一部分,以便訓(xùn)練回歸,分類和多任務(wù)學(xué)習(xí)問題。
用戶還可以通過擴(kuò)展adanet.subnetwork.Generator類來定義要探索的候選子網(wǎng)的搜索空間,根據(jù)可用硬件增加或減少搜索空間。子網(wǎng)的搜索空間可以簡(jiǎn)單到使用不同的隨機(jī)種子復(fù)制相同的子網(wǎng)配置,或者訓(xùn)練具有不同超參數(shù)組合的數(shù)十個(gè)子網(wǎng),讓AdaNet選擇包含在最終集成模型中的子網(wǎng)。
看完上述內(nèi)容是否對(duì)您有幫助呢?如果還想對(duì)相關(guān)知識(shí)有進(jìn)一步的了解或閱讀更多相關(guān)文章,請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對(duì)創(chuàng)新互聯(lián)的支持。
網(wǎng)頁(yè)題目:如何進(jìn)行AdaNet工具的分析
分享鏈接:http://jinyejixie.com/article40/ggspho.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供微信公眾號(hào)、網(wǎng)站排名、網(wǎng)站營(yíng)銷、動(dòng)態(tài)網(wǎng)站、云服務(wù)器、虛擬主機(jī)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)