這篇文章主要介紹scrapy怎么在python分布式爬蟲中構(gòu)建?,文中介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們一定要看完!
Scrapy
在Ubuntu安裝Scrapy的步驟為:打開終端 >> 在終端輸入命令:pip install scrapy >> 在終端輸入命令:scrapy version >> 成功輸出 Scrapy版本號則證明成功安裝。
各模塊作用
1. items
爬蟲抓取數(shù)據(jù)的工作實際上是從非結(jié)構(gòu)化數(shù)據(jù)(網(wǎng)頁)中提取出結(jié)構(gòu)化數(shù)據(jù)。雖然Scrapy框架爬蟲可以將提取到的數(shù)據(jù)以Python字典 的形式返回,但是由于Python字典缺少結(jié)構(gòu),所以很容易發(fā)生返回數(shù)據(jù)不一致亦或者名稱拼寫的錯誤,若是Scrapy爬蟲項目中包含復(fù) 數(shù)以上的爬蟲則發(fā)生錯誤的機(jī)率將更大。因此,Scrapy框架提供了一個items模塊來定義公共的輸出格式,其中的Item對象是一個用于 收集Scrapy爬取的數(shù)據(jù)的簡單容器。
2. Downloader Middleware
Downloader Middleware是一個Scrapy能全局處理Response和Request的、微型的系統(tǒng)。Downloader Middleware中定義的Downloader Middleware設(shè)有優(yōu)先級順序,優(yōu)先級數(shù)字越低,則優(yōu)先級越高,越先執(zhí)行。在本次分布式爬蟲中,我們定義了兩個Downloader Middleware,一個用于隨機(jī)選擇爬蟲程序執(zhí)行時的User-Agent,一個用于隨機(jī)選擇爬蟲程序執(zhí)行時的IP地址。
3. settings
settings模塊用于用戶自定義Scrapy框架中Pipeline、Middleware、Spider等所有組件的所有動作,且可自定義變量或者日志動作。
以上是“scrapy怎么在python分布式爬蟲中構(gòu)建?”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!
分享題目:scrapy怎么在python分布式爬蟲中構(gòu)建?-創(chuàng)新互聯(lián)
文章路徑:http://jinyejixie.com/article38/heepp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站改版、定制網(wǎng)站、網(wǎng)站導(dǎo)航、軟件開發(fā)、網(wǎng)站建設(shè)、全網(wǎng)營銷推廣
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容