成人午夜视频全免费观看高清-秋霞福利视频一区二区三区-国产精品久久久久电影小说-亚洲不卡区三一区三区一区

使用python寫爬蟲程序的方法-創(chuàng)新互聯(lián)

創(chuàng)新互聯(lián)www.cdcxhl.cn八線動態(tài)BGP香港云服務(wù)器提供商,新人活動買多久送多久,劃算不套路!

創(chuàng)新互聯(lián)科技有限公司專業(yè)互聯(lián)網(wǎng)基礎(chǔ)服務(wù)商,為您提供成都服務(wù)器托管,高防服務(wù)器租用,成都IDC機(jī)房托管,成都主機(jī)托管等互聯(lián)網(wǎng)服務(wù)。

這篇文章將為大家詳細(xì)講解有關(guān)使用python寫爬蟲程序的方法,小編覺得挺實(shí)用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

python編寫爬蟲的整體思路簡單清晰,下面來說一下具體的步驟:

先來看代碼,在解釋,一個簡單的網(wǎng)絡(luò)爬蟲示例

import requests
from bs4 import BeautifulSoup

#58同城的二手市場主頁面
start_url = 'http://bj.58.com/sale.shtml'
url_host = 'http://bj.58.com'
#定義一個爬蟲函數(shù)來獲取二手市場頁面中的全部大類頁面的連接
def get_channel_urls(url):
    #使用Requests庫來進(jìn)行一次請求
    web_data = requests.get(url)
    #使用BeautifulSoup對獲取到的頁面進(jìn)行解析
    soup = BeautifulSoup(web_data.text, 'lxml')
    #根據(jù)頁面內(nèi)的定位信息獲取到全部大類所對應(yīng)的連接
    urls = soup.select('ul.ym-submnu > li > b > a')
    #作這兩行處理是因?yàn)橛械臉?biāo)簽有鏈接,但是卻是空內(nèi)容
    for link in urls:
        if link.text.isspace():
            continue
        else:
            page_url = url_host + link.get('href')
            print(page_url)

整體思路流程

通過URL獲取說要爬取的頁面的響應(yīng)信息(Requests庫的使用)

通過python中的解析庫來對response進(jìn)行結(jié)構(gòu)化解析(BeautifulSoup庫的使用)

通過對解析庫的使用和對所需要的信息的定位從response中獲取需要的數(shù)據(jù)(selecter和xpath的使用)

將數(shù)據(jù)組織成一定的格式進(jìn)行保存(MongoDB的使用)

通過對數(shù)據(jù)庫中的數(shù)據(jù)進(jìn)行篩選和組織,進(jìn)行數(shù)據(jù)可視化的初步展示(HighCharts庫的使用)

簡單代碼演示

 準(zhǔn)備工作

下載并安裝所需要的python庫,包括:

requests庫:用于向指定url發(fā)起請求

BeautifulSoup庫:用于解析返回的網(wǎng)頁信息

lxml庫:用于解析網(wǎng)頁返回結(jié)果

pymongo庫:用于實(shí)現(xiàn)python對MongoDB的操作

 對所需要的網(wǎng)頁進(jìn)行請求并解析返回的數(shù)據(jù)

對于想要做一個簡單的爬蟲而言,這一步其實(shí)很簡單,主要是通過requests庫來進(jìn)行請求,然后對返回的數(shù)據(jù)進(jìn)行一個解析,解析之后通過對于元素的定位和選擇來獲取所需要的數(shù)據(jù)元素,進(jìn)而獲取到數(shù)據(jù)的一個過程。(更多學(xué)習(xí)內(nèi)容,請點(diǎn)擊python學(xué)習(xí)網(wǎng)

以上就是一個簡單的網(wǎng)頁爬蟲的制作過程,我們可以通過定義不同的爬蟲來實(shí)現(xiàn)爬取不同頁面的信息,并通過程序的控制來實(shí)現(xiàn)一個自動化爬蟲。

關(guān)于使用python寫爬蟲程序的方法就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

分享標(biāo)題:使用python寫爬蟲程序的方法-創(chuàng)新互聯(lián)
網(wǎng)頁鏈接:http://jinyejixie.com/article2/ggoic.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站收錄、服務(wù)器托管網(wǎng)站導(dǎo)航、網(wǎng)站維護(hù)響應(yīng)式網(wǎng)站、電子商務(wù)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都做網(wǎng)站
安溪县| 利辛县| 墨脱县| 彭山县| 开江县| 信阳市| 宁城县| 区。| 九龙县| 宁阳县| 晋城| 兴义市| 舒兰市| 扶绥县| 文安县| 日照市| 商南县| 襄垣县| 南丰县| 勐海县| 务川| 盱眙县| 永福县| 五家渠市| 句容市| 灌阳县| 孝感市| 万年县| 老河口市| 邵东县| 泰宁县| 乐陵市| 巴东县| 平度市| 临江市| 阿巴嘎旗| 灵丘县| 定边县| 郑州市| 论坛| 常德市|