定義一個OleDbCommand,把OleDbCommandBuilder的insertCommand給他,在語句后面加個斷點(diǎn)就能看到
成都創(chuàng)新互聯(lián)公司專注于仙桃網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗(yàn)。 熱誠為您提供仙桃營銷型網(wǎng)站建設(shè),仙桃網(wǎng)站制作、仙桃網(wǎng)頁設(shè)計(jì)、仙桃網(wǎng)站官網(wǎng)定制、成都微信小程序服務(wù),打造仙桃網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供仙桃網(wǎng)站排名全網(wǎng)營銷落地服務(wù)。
出現(xiàn)這個錯誤的原因在于,在不同的always邏輯塊中,對同一個reg變量進(jìn)行了賦值,在多個alwasy邏輯塊同時并行工作的時候,會出現(xiàn)沖突。
解決的辦法:對于一個變量,只在一個always塊中,進(jìn)行賦值,內(nèi)部分別對同一個變量進(jìn)行的賦值smp_cnt,txd_cnt,txd_state;
擴(kuò)展資料:
wire與reg類型的區(qū)別:
1.wire型數(shù)據(jù)常用來表示以assign關(guān)鍵字指定的組合邏輯信號。模塊的輸入輸出端口類型都默認(rèn)為wire型。默認(rèn)初始值是z。
2.reg型表示的寄存器類型。always模塊內(nèi)被賦值的信號,必須定義為reg型,代表觸發(fā)器,默認(rèn)初始值是x。
2.reg 類型不一定是寄存器變量,例如組合邏輯中reg類型變量。
3.reg相當(dāng)于存儲單元,wire相當(dāng)于物理連線。
4.Verilog 中變量的物理數(shù)據(jù)分為線型和寄存器型。這兩種類型的變量在定義時要設(shè)置位寬,缺省為1位。變量的每一位可以是0,1,X,Z。
Netstat用于顯示與IP、TCP、UDP和ICMP協(xié)議相關(guān)的統(tǒng)計(jì)數(shù)據(jù),一般用于檢驗(yàn)本機(jī)各端口的網(wǎng)絡(luò)連接情況。 有很多的參數(shù),下面說一點(diǎn)常用的。如果你想做黑客的話,NETSTAT的所有參數(shù)用法都必須掌握哦~!
1、netstat 的一些常用選項(xiàng)
·netstat –s
本選項(xiàng)能夠按照各個協(xié)議分別顯示其統(tǒng)計(jì)數(shù)據(jù)。如果我們的應(yīng)用程序(如Web瀏覽器)運(yùn)行速度比較慢,或者不能顯示W(wǎng)eb頁之類的數(shù)據(jù),那么我們就可以用本選項(xiàng)來查看一下所顯示的信息。我們需要仔細(xì)查看統(tǒng)計(jì)數(shù)據(jù)的各行,找到出錯的關(guān)鍵字,進(jìn)而確定問題所在。
·netstat –e
本選項(xiàng)用于顯示關(guān)于以太網(wǎng)的統(tǒng)計(jì)數(shù)據(jù)。它列出的項(xiàng)目包括傳送的數(shù)據(jù)報(bào)的總字節(jié)數(shù)、錯誤數(shù)、刪除數(shù)、數(shù)據(jù)報(bào)的數(shù)量和廣播的數(shù)量。這些統(tǒng)計(jì)數(shù)據(jù)既有發(fā)送的數(shù)據(jù)報(bào)數(shù)量,也有接收的數(shù)據(jù)報(bào)數(shù)量。這個選項(xiàng)可以用來統(tǒng)計(jì)一些基本的網(wǎng)絡(luò)流量)。
·netstat –r
本選項(xiàng)可以顯示關(guān)于路由表的信息,類似于后面所講使用route print命令時看到的 信息。除了顯示有效路由外,還顯示當(dāng)前有效的連接。
·netstat –a
本選項(xiàng)顯示一個所有的有效連接信息列表,包括已建立的連接(ESTABLISHED),也包括監(jiān)聽連接請求(LISTENING)的那些連接。
·netstat –n
顯示所有已建立的有效連接。
下面是 netstat 的輸出示例:
C:\netstat -e
Interface Statistics
Received Sent
Bytes 399583794047224622
Unicast packets120099131015
Non-unicast packets7579544 3823
Discards 0 0
Errors 0 0
Unknown protocols 363054211
C:\netstat -a
Active Connections
Proto Local Address Foreign Address State
TCP CORP1:1572 172.16.48.10:nbsession ESTABLISHED
TCP CORP1:1589 172.16.48.10:nbsession ESTABLISHED
TCP CORP1:1606 172.16.105.245:nbsession ESTABLISHED
TCP CORP1:1632 172.16.48.213:nbsession ESTABLISHED
TCP CORP1:1659 172.16.48.169:nbsession ESTABLISHED
TCP CORP1:1714 172.16.48.203:nbsession ESTABLISHED
TCP CORP1:1719 172.16.48.36:nbsession ESTABLISHED
TCP CORP1:1241 172.16.48.101:nbsession ESTABLISHED
UDP CORP1:1025 *:*
UDP CORP1:snmp *:*
UDP CORP1:nbname *:*
UDP CORP1:nbdatagram *:*
UDP CORP1:nbname *:*
UDP CORP1:nbdatagram *:*
C:\netstat -s
IP Statistics
Packets Received = 5378528
Received Header Errors = 738854
Received Address Errors = 23150
Datagrams Forwarded = 0
Unknown Protocols Received = 0
Received Packets Discarded = 0
Received Packets Delivered = 4616524
Output Requests = 132702
Routing Discards = 157
Discarded Output Packets = 0
Output Packet No Route = 0
Reassembly Required = 0
Reassembly Successful = 0
Reassembly Failures =
Datagrams Successfully Fragmented = 0
Datagrams Failing Fragmentation = 0
Fragments Created = 0
ICMP Statistics
Received Sent
Messages 693 4
Errors 0 0
Destination Unreachable 685 0
Time Exceeded0 0
Parameter Problems 0 0
Source Quenches 0 0
Redirects0 0
Echoes 4 0
Echo Replies 0 4
Timestamps 0 0
Timestamp Replies0 0
Address Masks0 0
Address Mask Replies 0 0
TCP Statistics
Active Opens = 597
Passive Opens= 135
Failed Connection Attempts = 107
Reset Connections= 91
Current Connections = 8
Segments Received= 106770
Segments Sent= 118431
Segments Retransmitted = 461
UDP Statistics
Datagrams Received = 4157136
No Ports = 351928
Receive Errors = 2
Datagrams Sent = 13809
2、Netstat的妙用
經(jīng)常上網(wǎng)的人一般都使用ICQ的,不知道我們有沒有被一些討厭的人騷擾,想投訴卻又不知從和下手?其實(shí),我們只要知道對方的IP,就可以向他所屬的ISP投訴了。但怎樣才能通過ICQ知道對方的IP呢?如果對方在設(shè)置ICQ時選擇了不顯示IP地址,那我們是無法在信息欄中看到的。其實(shí),我們只需要通過Netstat就可以很方便的做到這一點(diǎn):當(dāng)他通過ICQ或其他的工具與我們相連時(例如我們給他發(fā)一條ICQ信息或他給我們發(fā)一條信息),我們立刻在DOS 命令提示符下輸入netstat -n或netstat -a就可以看到對方上網(wǎng)時所用的IP或ISP域名了,甚至連所用Port都完全暴露了。
對于目標(biāo)檢測方向并不是特別熟悉,本文記錄一下RCNN, fast-RCNN, faster-RCNN, mask-RCNN這4篇有關(guān)目標(biāo)檢測的論文筆記和學(xué)習(xí)心得。
R-CNN的意思就是Region based,主要思路就是根據(jù)一張圖像,提取多個region,再將每個Region輸入CNN來進(jìn)行特征的提取。因此RCNN就可以分為 Region proposals , Feature extraction 兩個主要部分,提取的特征就可以輸入任意一個分類器來進(jìn)行分類。
模型的流程圖如下:
在訓(xùn)練的時候,首先使用的是已經(jīng)訓(xùn)練好的CNN網(wǎng)絡(luò)作為特征提取器,但是由于預(yù)訓(xùn)練是在分類數(shù)據(jù)集上,因此在應(yīng)用到檢測之前要做finetune。也就是說,為了將用ImageNet數(shù)據(jù)集訓(xùn)練的網(wǎng)絡(luò)應(yīng)用到新的任務(wù)(檢測),新的數(shù)據(jù)集(region)上,作者將原來的CNN最后的1000類的fc層,更改為了 層, 代表待檢測的物體的類別數(shù)。然后,對于所有的region,如果它和ground truth的重疊率大于0.5,就認(rèn)為是正類。
對于分類器的訓(xùn)練,作者發(fā)現(xiàn)選擇多大的IoU來區(qū)分正類和負(fù)類非常關(guān)鍵。并且,對于每一類,都會訓(xùn)練一個分類器。
框的回歸非常重要,在對每一個region proposal使用分類器進(jìn)行打分評價之后,作者使用一個回歸器來預(yù)測一個新的框作為結(jié)果。這個回歸器使用的特征是從CNN中提取的特征?;貧w器的訓(xùn)練中,輸入是 region proposal 的 和ground truth的 ,目標(biāo)是學(xué)習(xí)一種變換,使得region proposal通過該變換能夠接近ground truth。同時,希望這種變換擁有尺度不變性,也就是說尺度變化的話,變換不會改變。
如下圖所示,每一個regressor會學(xué)習(xí)一組參數(shù),特征輸入是pool 5的特征輸出,擬合的目標(biāo)是 。
Fast-RCNN 主要解決的問題是在RCNN中對于每一個region proposal都進(jìn)行特征提取,會產(chǎn)生非常多的冗余計(jì)算,因此可以先對一張圖像進(jìn)行特征提取,再根據(jù)region proposal在相應(yīng)的特征上進(jìn)行劃分得到對應(yīng)region的特征(映射關(guān)系)。
這樣便可以實(shí)現(xiàn)共享計(jì)算提高速度,但是與SPPnets不同,SPPnets在一副圖像得到對應(yīng)的特征后,從這張圖像的特征上proposal對應(yīng)的部分,采用空間金字塔池化,如下圖:
RoI pooling的方法很簡單,類似于空間金字塔pooling,它將proposal部分對應(yīng)卷積層輸出的特征(稱之為RoI,因?yàn)橛糜谧鰌ooling的特征是 region of interest,也就是我們感興趣的區(qū)域)劃分成 塊,然后對每一塊求最大值,最終得到了一個 的特征圖??梢钥闯觯皇强臻g金字塔pooling的一部分。
但是SPP-nets的空間金字塔也是可以求導(dǎo)的,那么它到底不好在哪里呢?因?yàn)楫?dāng)每一個RoI都可能來源于不同的圖像的時候(R-CNN和SPPnets的訓(xùn)練策略是從一個batch的不同圖像中,分別挑選一個proposal region),SPPNets的訓(xùn)練非常地低效,這種低效來源于在SPPnets的訓(xùn)練中,每個RoI的感受野都非常地大,很可能對應(yīng)了原圖的整個圖像,因此,得到的特征也幾乎對應(yīng)了整張圖像,所以輸入的圖像也就很大。
為了提高效率,F(xiàn)ast-RCNN首先選取 個圖像,再從每個圖像上選擇 個RoI,這樣的效率就比從每個圖像提取一個RoI提高了 倍。
為了將分類和框回歸結(jié)合起來,作者采用了多任務(wù)的loss,來進(jìn)行聯(lián)合的訓(xùn)練。具體來說就是將分類的loss和框回歸的loss結(jié)合起來。網(wǎng)絡(luò)的設(shè)計(jì)上非常直接,就是將RoI得到的特征接幾個FC層后,分別接不同的輸出層。對應(yīng)于分類部分,特征會接一個softmax輸出,用于分類,對于框回歸部分,會接一個輸出4維特征的輸出層,然后分別計(jì)算loss,用于反向傳播。loss的公式如下:
回歸的target可以參考前面的R-CNN部分。
notes
為什么比fast還fast呢?主要原因是在這篇論文中提出了一個新的層:RPN(region proposal networks)用于替代之前的selective search。這個層還可以在GPU上運(yùn)算來提高速度。
RPN的目的:
為了能夠進(jìn)行region proposal,作者使用了一個小的網(wǎng)絡(luò),在基礎(chǔ)的卷積層輸出的特征上進(jìn)行滑動,這個網(wǎng)絡(luò)輸入大小為 ,輸入后會映射(用 的卷積)為一個固定長度的特征向量,然后接兩個并聯(lián)的fc層(用 的卷積層代替),這兩個fc層,一個為box-regressoin,一個為box-classification。如下圖:
在每一個滑動窗口(可以參考 ),為了考慮到盡可能多的框的情況,作者設(shè)計(jì)了anchors來作為region proposal。anchors就是對于每一個滑動窗口的中心位置,在該位置對應(yīng)的原圖位置的基礎(chǔ)上,按照不同的尺度,長寬比例框出 個不同的區(qū)域。然后根據(jù)這些anchors對應(yīng)的原始圖像位置以及區(qū)域,和ground truth,就可以給每一個滑動窗口的每一個anchor進(jìn)行標(biāo)記,也就是賦予label,滿足一定條件標(biāo)記為正類(比如和ground truth重疊大于一個值),一定條件為負(fù)類。對于正類,就可以根據(jù)ground truth和該anchor對應(yīng)的原圖的區(qū)域之間的變換關(guān)系(參考前面的R-CNN的框回歸),得到回歸器中的目標(biāo),用于訓(xùn)練。也就是論文中的loss function部分:
自然地,也就要求RPN的兩個并聯(lián)的FC層一個輸出2k個值用于表示這k個anchor對應(yīng)的區(qū)域的正類,負(fù)類的概率,另一個輸出4k個值,用于表示框回歸的變換的預(yù)測值。
對于整個網(wǎng)絡(luò)的訓(xùn)練,作者采用了一種叫做 4-step Alternating Training 的方法。具體可以參考論文。
與之前的檢測任務(wù)稍有不同,mask r-cnn的任務(wù)是做instance segmentation。因此,它需要對每一個像素點(diǎn)進(jìn)行分類。
與Faster R-CNN不同,F(xiàn)aster R-CNN對每一個候選框產(chǎn)生兩個輸出,一個是類別,一個是bounding box的offset。Mask R-CNN新增加了一個輸出,作為物體的mask。這個mask類似于ps中的蒙版。
與Faster R-CNN類似的是,Mask R-CNN同樣采用RPN來進(jìn)行Region Proposal。但是在之后,對于每一個RoI,mask r-cnn還輸出了一個二值化的mask。
不像類別,框回歸,輸出都可以是一個向量,mask必須保持一定的空間信息。因此,作者采用FCN來從每個RoI中預(yù)測一個 的mask。
由于屬于像素級別的預(yù)測問題,就需要RoI能夠在進(jìn)行特征提取的時候保持住空間信息,至少在像素級別上能夠?qū)?yīng)起來。因此,傳統(tǒng)的取最大值的方法就顯得不合適。
RoI Pooling,經(jīng)歷了兩個量化的過程:
第一個:從roi proposal到feature map的映射過程。
第二個:從feature map劃分成7*7的bin,每個bin使用max pooling。
為此,作者使用了RoIAlign。如下圖
為了避免上面提到的量化過程
可以參考
作者使用ResNet作為基礎(chǔ)的特征提取的網(wǎng)絡(luò)。
對于預(yù)測類別,回歸框,mask的網(wǎng)絡(luò)使用如下圖結(jié)構(gòu):
整體看完這幾篇大佬的論文,雖說沒有弄清楚每一個實(shí)現(xiàn)細(xì)節(jié),但是大體上了解了算法的思路。可以看出,出發(fā)點(diǎn)都源于深度神經(jīng)網(wǎng)絡(luò)在特征提取上的卓越能力,因此一眾大神試圖將這種能力應(yīng)用在檢測問題中。從R-CNN中簡單地用于特征提取,到為了提高速度減少計(jì)算的Fast R-CNN,再到為了將region proposal集成進(jìn)入整個模型中,并且利用GPU加速的RPN,也就是Faster R-CNN。再到為了應(yīng)用于instance segmentation任務(wù)中,設(shè)計(jì)的RoIAlign和mask。包括bounding box regression,pooling層的設(shè)計(jì),訓(xùn)練方法的選擇,loss的設(shè)計(jì)等等細(xì)節(jié),無一不體現(xiàn)了大師們的思考和創(chuàng)造力。
可能在我們這些“拿來”者的眼中,這些方法都顯得“理所應(yīng)當(dāng)”和巧妙,好用,但是,它們背后隱藏的選擇和這些選擇的思考卻更值得我們學(xué)習(xí)。
以及,對待每一個問題,如何設(shè)計(jì)出合理的解決方案,以及方案的效率,通用性,更是應(yīng)該我們努力的方向。
分享標(biāo)題:vb.netsr232,vbtps235
轉(zhuǎn)載來于:http://jinyejixie.com/article38/dssdjpp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供企業(yè)網(wǎng)站制作、網(wǎng)頁設(shè)計(jì)公司、響應(yīng)式網(wǎng)站、企業(yè)建站、域名注冊、服務(wù)器托管
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)