成人午夜视频全免费观看高清-秋霞福利视频一区二区三区-国产精品久久久久电影小说-亚洲不卡区三一区三区一区

Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程-創(chuàng)新互聯(lián)

創(chuàng)新互聯(lián)www.cdcxhl.cn八線動(dòng)態(tài)BGP香港云服務(wù)器提供商,新人活動(dòng)買多久送多久,劃算不套路!

讓客戶滿意是我們工作的目標(biāo),不斷超越客戶的期望值來自于我們對(duì)這個(gè)行業(yè)的熱愛。我們立志把好的技術(shù)通過有效、簡(jiǎn)單的方式提供給客戶,將通過不懈努力成為客戶在信息化領(lǐng)域值得信任、有價(jià)值的長(zhǎng)期合作伙伴,公司提供的服務(wù)項(xiàng)目有:申請(qǐng)域名、虛擬空間、營(yíng)銷軟件、網(wǎng)站建設(shè)、榆陽網(wǎng)站維護(hù)、網(wǎng)站推廣。

小編給大家分享一下Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!

mitmdump 爬取 “得到” App 電子書信息

“得到” App 是羅輯思維出品的一款碎片時(shí)間學(xué)習(xí)的 App,其官方網(wǎng)站為 https://www.igetget.com,App 內(nèi)有很多學(xué)習(xí)資源。不過 “得到” App 沒有對(duì)應(yīng)的網(wǎng)頁版,所以信息必須要通過 App 才可以獲取。這次我們通過抓取其 App 來練習(xí) mitmdump 的用法。

1. 爬取目標(biāo)

我們的爬取目標(biāo)是 App 內(nèi)電子書版塊的電子書信息,并將信息保存到 MongoDB,如圖 11-30 所示。

Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程

我們要把圖書的名稱、簡(jiǎn)介、封面、價(jià)格爬取下來,不過這次爬取的側(cè)重點(diǎn)還是了解 mitmdump 工具的用法,所以暫不涉及自動(dòng)化爬取,App 的操作還是手動(dòng)進(jìn)行。mitmdump 負(fù)責(zé)捕捉響應(yīng)并將數(shù)據(jù)提取保存。

2. 準(zhǔn)備工作

請(qǐng)確保已經(jīng)正確安裝好了 mitmproxy 和 mitmdump,手機(jī)和 PC 處于同一個(gè)局域網(wǎng)下,同時(shí)配置好了 mitmproxy 的 CA 證書,安裝好 MongoDB 并運(yùn)行其服務(wù),安裝 PyMongo 庫,具體的配置可以參考第 1 章的說明。

3. 抓取分析

首先探尋一下當(dāng)前頁面的 URL 和返回內(nèi)容,我們編寫一個(gè)腳本如下所示:

def response(flow):
    print(flow.request.url)
    print(flow.response.text)

這里只輸出了請(qǐng)求的 URL 和響應(yīng)的 Body 內(nèi)容,也就是請(qǐng)求鏈接和響應(yīng)內(nèi)容這兩個(gè)最關(guān)鍵的部分。腳本保存名稱為 script.py。

接下來運(yùn)行 mitmdump,命令如下所示:

mitmdump -s script.py

打開 “得到” App 的電子書頁面,便可以看到 PC 端控制臺(tái)有相應(yīng)輸出。接著滑動(dòng)頁面加載更多電子書,控制臺(tái)新出現(xiàn)的輸出內(nèi)容就是 App 發(fā)出的新的加載請(qǐng)求,包含了下一頁的電子書內(nèi)容??刂婆_(tái)輸出結(jié)果示例如圖 11-31 所示。

Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程

圖 11-31 控制臺(tái)輸出

可以看到 URL 為 https://dedao.igetget.com/v3/discover/bookList 的接口,其后面還加了一個(gè) sign 參數(shù)。通過 URL 的名稱,可以確定這就是獲取電子書列表的接口。在 URL 的下方輸出的是響應(yīng)內(nèi)容,是一個(gè) JSON 格式的字符串,我們將它格式化,如圖 11-32 所示。

Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程

圖 11-32 格式化結(jié)果

格式化后的內(nèi)容包含一個(gè) c 字段、一個(gè) list 字段,list 的每個(gè)元素都包含價(jià)格、標(biāo)題、描述等內(nèi)容。第一個(gè)返回結(jié)果是電子書《情人》,而此時(shí) App 的內(nèi)容也是這本電子書,描述的內(nèi)容和價(jià)格也是完全匹配的,App 頁面如圖 11-33 所示。

Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程

圖 11-33 APP 頁面

這就說明當(dāng)前接口就是獲取電子書信息的接口,我們只需要從這個(gè)接口來獲取內(nèi)容就好了。然后解析返回結(jié)果,將結(jié)果保存到數(shù)據(jù)庫。

4. 數(shù)據(jù)抓取

接下來我們需要對(duì)接口做過濾限制,抓取如上分析的接口,再提取結(jié)果中的對(duì)應(yīng)字段。

這里,我們修改腳本如下所示:

import json
from mitmproxy import ctx
def response(flow):
    url = 'https://dedao.igetget.com/v3/discover/bookList'
    if flow.request.url.startswith(url):
        text = flow.response.text
        data = json.loads(text)
        books = data.get('c').get('list')
        for book in books:
            ctx.log.info(str(book))

重新滑動(dòng)電子書頁面,在 PC 端控制臺(tái)觀察輸出,如圖 11-34 所示。

Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程

圖 11-34 控制臺(tái)輸出

現(xiàn)在輸出了圖書的全部信息,一本圖書信息對(duì)應(yīng)一條 JSON 格式的數(shù)據(jù)。

5. 提取保存

接下來我們需要提取信息,再把信息保存到數(shù)據(jù)庫中。方便起見,我們選擇 MongoDB 數(shù)據(jù)庫。

腳本還可以增加提取信息和保存信息的部分,修改代碼如下所示:

import json
import pymongo
from mitmproxy import ctx
client = pymongo.MongoClient('localhost')
db = client['igetget']
collection = db['books']
def response(flow):
    global collection
    url = 'https://dedao.igetget.com/v3/discover/bookList'
    if flow.request.url.startswith(url):
        text = flow.response.text
        data = json.loads(text)
        books = data.get('c').get('list')
        for book in books:
            data = {'title': book.get('operating_title'),
                'cover': book.get('cover'),
                'summary': book.get('other_share_summary'),
                'price': book.get('price')
            }
            ctx.log.info(str(data))
            collection.insert(data)

重新滑動(dòng)頁面,控制臺(tái)便會(huì)輸出信息,如圖 11-35 所示。

Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程

圖 11-35 控制臺(tái)輸出

現(xiàn)在輸出的每一條內(nèi)容都是經(jīng)過提取之后的內(nèi)容,包含了電子書的標(biāo)題、封面、描述、價(jià)格信息。

最開始我們聲明了 MongoDB 的數(shù)據(jù)庫連接,提取出信息之后調(diào)用該對(duì)象的 insert() 方法將數(shù)據(jù)插入到數(shù)據(jù)庫即可。

滑動(dòng)幾頁,發(fā)現(xiàn)所有圖書信息都被保存到 MongoDB 中,如圖 11-36 所示。

Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程

目前為止,我們利用一個(gè)非常簡(jiǎn)單的腳本把 “得到” App 的電子書信息保存下來。

看完了這篇文章,相信你對(duì)Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程有了一定的了解,想了解更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道,感謝各位的閱讀!

網(wǎng)站標(biāo)題:Python3爬蟲實(shí)戰(zhàn)mitmdump爬取App電子書信息的操作流程-創(chuàng)新互聯(lián)
文章URL:http://jinyejixie.com/article8/ddeoop.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供靜態(tài)網(wǎng)站、網(wǎng)站維護(hù)、微信公眾號(hào)手機(jī)網(wǎng)站建設(shè)、移動(dòng)網(wǎng)站建設(shè)App設(shè)計(jì)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

外貿(mào)網(wǎng)站制作
肇东市| 祁门县| 睢宁县| 沽源县| 舟山市| 米林县| 全州县| 肥乡县| 南京市| 福海县| 靖安县| 潍坊市| 平泉县| 张家界市| 理塘县| 漳浦县| 肇东市| 肥乡县| 贵定县| 贵定县| 突泉县| 昌邑市| 普安县| 伊通| 额济纳旗| 博野县| 兰西县| 兰考县| 娄烦县| 武强县| 巴彦县| 铁岭县| 伊金霍洛旗| 修文县| 宣化县| 永登县| 岳阳市| 界首市| 宝坻区| 璧山县| 苏尼特左旗|