了解python爬蟲之request怎么定義headers?這個(gè)問題可能是我們?nèi)粘W(xué)習(xí)或工作經(jīng)常見到的。希望通過這個(gè)問題能讓你收獲頗深。下面是小編給大家?guī)淼膮⒖純?nèi)容,讓我們一起來看看吧!
目前成都創(chuàng)新互聯(lián)已為千余家的企業(yè)提供了網(wǎng)站建設(shè)、域名、網(wǎng)絡(luò)空間、成都網(wǎng)站托管、企業(yè)網(wǎng)站設(shè)計(jì)、鎮(zhèn)遠(yuǎn)網(wǎng)站維護(hù)等服務(wù),公司將堅(jiān)持客戶導(dǎo)向、應(yīng)用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長,共同發(fā)展。對于寫爬蟲來講,模擬瀏覽器是發(fā)請求的時(shí)候做的最多的事情了,最常見的模擬瀏覽器無非就是偽裝headers:
In [23]: url = 'http://xlzd.me' In [24]: headers = {'User-Agent': 'my custom user agent', 'Cookie': 'haha'} In [25]: requests.get(url, headers=headers)
拓展:
怎樣取出HTTP response里面的內(nèi)容呢?
In [7]: r = requests.get('http://xlzd.me') In [8]: r.encoding Out[8]: 'UTF-8' In [9]: r.headers Out[9]: {'Content-Encoding': 'gzip', 'Transfer-Encoding': 'chunked', 'Vary': 'Accept-Encoding', 'Server': 'nginx', 'Connection': 'keep-alive', 'Date': 'Fri, 11 Dec 2015 06:42:31 GMT', 'Content-Type': 'text/html; charset=UTF-8', 'X-Pingback': 'http://xlzd.me/action/xmlrpc'} In [10]: r.cookies Out[10]: <RequestsCookieJar[]> In [11]: r.text Out[11]: u'<!DOCTYPE HTML>\n<html>\n\t<hea......
requests會(huì)自動(dòng)對響應(yīng)內(nèi)容編碼,所以就可以通過r.text取出響應(yīng)文本了。對于別等響應(yīng)內(nèi)容(文件、圖片、...),則可以通過r.content取出來。對于json內(nèi)容,也可以通過r.json()來取。
感謝各位的閱讀!看完上述內(nèi)容,你們對python爬蟲之request怎么定義headers大概了解了嗎?希望文章內(nèi)容對大家有所幫助。如果想了解更多相關(guān)文章內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。
分享名稱:python爬蟲之request怎么定義headers-創(chuàng)新互聯(lián)
文章鏈接:http://jinyejixie.com/article40/csoheo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)網(wǎng)站建設(shè)、品牌網(wǎng)站制作、Google、做網(wǎng)站、網(wǎng)頁設(shè)計(jì)公司、品牌網(wǎng)站設(shè)計(jì)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容