小編給大家分享一下scrapy框架怎么運行python爬蟲并下載數(shù)據(jù),相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
公司主營業(yè)務:成都做網(wǎng)站、網(wǎng)站建設、移動網(wǎng)站開發(fā)等業(yè)務。幫助企業(yè)客戶真正實現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競爭能力。創(chuàng)新互聯(lián)是一支青春激揚、勤奮敬業(yè)、活力青春激揚、勤奮敬業(yè)、活力澎湃、和諧高效的團隊。公司秉承以“開放、自由、嚴謹、自律”為核心的企業(yè)文化,感謝他們對我們的高要求,感謝他們從不同領域給我們帶來的挑戰(zhàn),讓我們激情的團隊有機會用頭腦與智慧不斷的給客戶帶來驚喜。創(chuàng)新互聯(lián)推出鶴壁免費做網(wǎng)站回饋大家。
在項目文件夾內打開cmd運行下列命令:
scrapy crawl douban_top250 -o douban.csv
注意此處的douban_movie_top250即為我們剛剛寫的爬蟲的name, 而-o douban.csv是scrapy提供的將item輸出為csv格式的快捷方式,第一次輸出后是亂碼,這時候我們要在settings.py設置一些編碼格式:
FEED_EXPORT_ENCODING = 'GBK'
另外,在python包下面exporters.py里面CsvItemExporter 類中io.TextIOWrapper添加參數(shù)newline='',取消csv的自動換行
再次運行上述命令,我們想要的信息都被下載到douban.scv文件夾里了:
以上是scrapy框架怎么運行python爬蟲并下載數(shù)據(jù)的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯(lián)行業(yè)資訊頻道!
新聞標題:scrapy框架怎么運行python爬蟲并下載數(shù)據(jù)
文章鏈接:http://jinyejixie.com/article20/ipjdjo.html
成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供外貿建站、營銷型網(wǎng)站建設、標簽優(yōu)化、外貿網(wǎng)站建設、搜索引擎優(yōu)化、用戶體驗
聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)