本篇文章為大家展示了關(guān)于Keras 2.3.0 發(fā)布中的TensorFlow 2.0分析,內(nèi)容簡明扼要并且容易理解,絕對(duì)能使你眼前一亮,通過這篇文章的詳細(xì)介紹希望你能有所收獲。
10年的建水網(wǎng)站建設(shè)經(jīng)驗(yàn),針對(duì)設(shè)計(jì)、前端、開發(fā)、售后、文案、推廣等六對(duì)一服務(wù),響應(yīng)快,48小時(shí)及時(shí)工作處理。成都營銷網(wǎng)站建設(shè)的優(yōu)勢是能夠根據(jù)用戶設(shè)備顯示端的尺寸不同,自動(dòng)調(diào)整建水建站的顯示方式,使網(wǎng)站能夠適用不同顯示終端,在瀏覽器中調(diào)整網(wǎng)站的寬度,無論在任何一種瀏覽器上瀏覽網(wǎng)站,都能展現(xiàn)優(yōu)雅布局與設(shè)計(jì),從而大程度地提升瀏覽體驗(yàn)。創(chuàng)新互聯(lián)從事“建水網(wǎng)站設(shè)計(jì)”,“建水網(wǎng)站推廣”以來,每個(gè)客戶項(xiàng)目都認(rèn)真落實(shí)執(zhí)行。Keras主要關(guān)注tf.keras,同時(shí)繼續(xù)支持Theano/CNTK
此版本附帶了許多API更改,以使多后端Keras API與TensorFlow的高級(jí)API tf.keras“同步”。但是,有些TensorFlow 2.0功能不受支持。這就是團(tuán)隊(duì)建議開發(fā)人員在TensorFlow 2.0中將他們的Keras代碼切換到tf.keras的原因。
遷移到tf.keras將使開發(fā)人員能夠訪問諸如快速執(zhí)行,TPU培訓(xùn)以及低級(jí)TensorFlow與Layer和Model等高級(jí)概念之間更好的集成。
在此版本發(fā)布后,該團(tuán)隊(duì)計(jì)劃主要關(guān)注tf.keras的進(jìn)一步發(fā)展。 “發(fā)展將重點(diǎn)關(guān)注未來的發(fā)展。我們將在未來6個(gè)月內(nèi)繼續(xù)維護(hù)多后端Keras,但我們只會(huì)合并錯(cuò)誤修復(fù)。 API更改將不會(huì)被移植,“該團(tuán)隊(duì)寫道。
為了讓社區(qū)更容易為Keras的開發(fā)做出貢獻(xiàn),該團(tuán)隊(duì)將在keras-team/keras的獨(dú)立GitHub存儲(chǔ)庫中開發(fā)tf.keras。
Keras 2.3.0中的API更新
以下是Keras 2.3.0中的一些API更新:
add_metric方法被添加到Layer/Model,它類似于add_loss方法,但是用于指標(biāo)。
Keras 2.3.0引入了幾個(gè)基于類的丟失,包括MeanSquaredError,MeanAbsoluteError,BinaryCrossentropy,Hinge等。通過此更新,可以通過構(gòu)造函數(shù)參數(shù)來參數(shù)化丟失。
添加了許多基于類的度量標(biāo)準(zhǔn),包括Accuracy,MeanSquaredError,Hinge,F(xiàn)alsePositives,BinaryAccuracy等。此更新使度量標(biāo)準(zhǔn)可以通過構(gòu)造函數(shù)參數(shù)進(jìn)行有狀態(tài)和參數(shù)化。
train_on_batch和test_on_batch方法現(xiàn)在有一個(gè)名為resent_metrics的新參數(shù)。您可以將此參數(shù)設(shè)置為True,以便在編寫較低級(jí)別的培訓(xùn)或評(píng)估循環(huán)時(shí)維護(hù)不同批次的度量標(biāo)準(zhǔn)狀態(tài)。
model.reset_metrics()方法被添加到Model中,以便在編寫較低級(jí)別的訓(xùn)練或評(píng)估循環(huán)時(shí)清除紀(jì)元開始時(shí)的度量標(biāo)準(zhǔn)狀態(tài)。
Keras 2.3.0的重大變化
隨著API的變化,Keras 2.3.0包含一些重大變化。在此版本中,不推薦使用batch_size,write_grads,embeddings_freq和embeddings_layer_names,因此在與TensorFlow 2.0一起使用時(shí)會(huì)被忽略?,F(xiàn)在將根據(jù)用戶指定的確切名稱報(bào)告指標(biāo)和損失。此外,默認(rèn)的重復(fù)激活在所有RNN層中從hard_sigmoid更改為sigmoid。
上述內(nèi)容就是關(guān)于Keras 2.3.0 發(fā)布中的TensorFlow 2.0分析,你們學(xué)到知識(shí)或技能了嗎?如果還想學(xué)到更多技能或者豐富自己的知識(shí)儲(chǔ)備,歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道。
本文標(biāo)題:關(guān)于Keras2.3.0發(fā)布中的TensorFlow2.0分析-創(chuàng)新互聯(lián)
網(wǎng)址分享:http://jinyejixie.com/article4/dsgdoe.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站制作、服務(wù)器托管、網(wǎng)站維護(hù)、電子商務(wù)、營銷型網(wǎng)站建設(shè)、移動(dòng)網(wǎng)站建設(shè)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容