這篇文章將為大家詳細(xì)講解有關(guān)如何用Mxnet和Tensorflow做簡(jiǎn)單多分類(lèi)器的對(duì)比測(cè)試,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個(gè)參考,希望大家閱讀完這篇文章后對(duì)相關(guān)知識(shí)有一定的了解。
在團(tuán)風(fēng)等地區(qū),都構(gòu)建了全面的區(qū)域性戰(zhàn)略布局,加強(qiáng)發(fā)展的系統(tǒng)性、市場(chǎng)前瞻性、產(chǎn)品創(chuàng)新能力,以專(zhuān)注、極致的服務(wù)理念,為客戶提供成都網(wǎng)站建設(shè)、網(wǎng)站設(shè)計(jì) 網(wǎng)站設(shè)計(jì)制作專(zhuān)業(yè)公司,公司網(wǎng)站建設(shè),企業(yè)網(wǎng)站建設(shè),品牌網(wǎng)站設(shè)計(jì),營(yíng)銷(xiāo)型網(wǎng)站建設(shè),外貿(mào)網(wǎng)站制作,團(tuán)風(fēng)網(wǎng)站建設(shè)費(fèi)用合理。
幾個(gè)月前,剛開(kāi)始接觸mxnet和Tensorflow時(shí),編寫(xiě)的自己案例使用的就是簡(jiǎn)單的數(shù)據(jù)集iris。因?yàn)樗銐蚝?jiǎn)單(只有3個(gè)分類(lèi),150條數(shù)據(jù)),很容易分析。 和很多研究者不太一樣,他們只是跑跑訓(xùn)練程序,看看打印出來(lái)的train accuracy就結(jié)束了。我訓(xùn)練完模型后,還喜歡繼續(xù)編一些自定義的數(shù)據(jù),然后讓模型去做預(yù)測(cè)或分類(lèi),看看模型是否足夠好。對(duì)Iris數(shù)據(jù)集,我用mxnet實(shí)現(xiàn)了一個(gè)MLP模型進(jìn)行分類(lèi)。在訓(xùn)練完后(打印出來(lái)的train accuracy在0.9以上的),馬上做一些自定義數(shù)據(jù)的預(yù)測(cè),結(jié)果發(fā)現(xiàn)預(yù)測(cè)分類(lèi)結(jié)果很差,沒(méi)法用。當(dāng)時(shí)覺(jué)得是自己不熟悉Mxnet ,所以才會(huì)有這樣的結(jié)果,就不管了??墒牵髞?lái)轉(zhuǎn)為用Tensorflow實(shí)現(xiàn)類(lèi)似的MLP模型對(duì)iris數(shù)據(jù)集進(jìn)行分類(lèi),然后預(yù)測(cè)同樣的自定義數(shù)據(jù),突然發(fā)現(xiàn)Tensorflow的代碼表現(xiàn)很不錯(cuò)。這種強(qiáng)烈對(duì)比差距讓我很驚訝,于是又用mxnet和Tensorflow編寫(xiě)MLP模型測(cè)試另外兩個(gè)數(shù)據(jù)集,結(jié)果還是如此(Tensorflow基本可以分類(lèi),mxnet不行)。我把一些測(cè)試的數(shù)據(jù)列出來(lái):
測(cè)試1. sonar dataset(兩個(gè)標(biāo)簽值,60個(gè)特征,208條數(shù)據(jù)。):
a)Tensorflow codes :
train Accuracy: 0.833333
測(cè)試4個(gè)新的數(shù)據(jù):
New samples accuracy: 0. 50000
b) mxnet codes:
train Accuracy: 0.6
測(cè)試4個(gè)新的數(shù)據(jù):
('New samples accuracy:', 0.25)
測(cè)試2. iris dataset(三個(gè)標(biāo)簽值,4個(gè)特征,150條數(shù)據(jù)):
a)Tensorflow codes :
train Accuracy: 1.0
測(cè)試10個(gè)新的數(shù)據(jù):
New samples accuracy: 0.900000
b) mxnet codes:
train Accuracy: 0.975
測(cè)試10個(gè)新的數(shù)據(jù):
('New samples accuracy:', 0.20)
測(cè)試3. 自定義數(shù)據(jù)集(三個(gè)標(biāo)簽值,3個(gè)特征,10000條數(shù)據(jù)。這個(gè)數(shù)據(jù)集是我編的,其中前兩個(gè)特征是無(wú)關(guān)緊要的,第三列特征才是決定因素。故意這樣設(shè)置,讓神經(jīng)網(wǎng)絡(luò)去自己判斷誰(shuí)最重要。
a)Tensorflow codes :
train Accuracy: 0.9
測(cè)試10個(gè)新的數(shù)據(jù):
New samples accuracy: 0.700000.
b) mxnet codes:
train Accuracy: 1.0
測(cè)試10個(gè)新的數(shù)據(jù):
New samples accuracy: 0.3.
可以看到,用mxnet編寫(xiě)的MLP模型對(duì)3個(gè)不同文本數(shù)據(jù)集進(jìn)行新數(shù)據(jù)分類(lèi)的精確度很差,沒(méi)法用。Tensorflow編寫(xiě)的MLP模型能用。mxnet為啥表現(xiàn)不佳呢?我懷疑mxnet代碼有bug,特別是模型定義和模型訓(xùn)練這塊的代碼。在mxnet的github上提了這個(gè)問(wèn)題,但是沒(méi)人理睬。算了。沒(méi)找出bug前還是用Tensorflow做這些簡(jiǎn)單分類(lèi)的分類(lèi)器吧。
相關(guān)的測(cè)試對(duì)比代碼放在這里:
https://github.com/qinhui99/mxnetSamples.git
關(guān)于如何用Mxnet和Tensorflow做簡(jiǎn)單多分類(lèi)器的對(duì)比測(cè)試就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到。
當(dāng)前文章:如何用Mxnet和Tensorflow做簡(jiǎn)單多分類(lèi)器的對(duì)比測(cè)試
網(wǎng)站地址:http://jinyejixie.com/article48/pshpep.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供自適應(yīng)網(wǎng)站、網(wǎng)站排名、App設(shè)計(jì)、網(wǎng)站設(shè)計(jì)公司、網(wǎng)站制作、ChatGPT
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)