成人午夜视频全免费观看高清-秋霞福利视频一区二区三区-国产精品久久久久电影小说-亚洲不卡区三一区三区一区

怎么利用Python網(wǎng)絡(luò)爬蟲來提取信息-創(chuàng)新互聯(lián)

怎么利用Python網(wǎng)絡(luò)爬蟲來提取信息,相信很多沒有經(jīng)驗的人對此束手無策,為此本文總結(jié)了問題出現(xiàn)的原因和解決方法,通過這篇文章希望你能解決這個問題。

創(chuàng)新互聯(lián)堅持“要么做到,要么別承諾”的工作理念,服務(wù)領(lǐng)域包括:成都網(wǎng)站制作、成都做網(wǎng)站、外貿(mào)營銷網(wǎng)站建設(shè)、企業(yè)官網(wǎng)、英文網(wǎng)站、手機(jī)端網(wǎng)站、網(wǎng)站推廣等服務(wù),滿足客戶于互聯(lián)網(wǎng)時代的蘇州網(wǎng)站設(shè)計、移動媒體設(shè)計的需求,幫助企業(yè)找到有效的互聯(lián)網(wǎng)解決方案。努力成為您成熟可靠的網(wǎng)絡(luò)建設(shè)合作伙伴!

下面小編就為大家?guī)硪黄狿ython網(wǎng)絡(luò)爬蟲與信息提取(實例講解)。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
課程體系結(jié)構(gòu):
1、Requests框架:自動爬取HTML頁面與自動網(wǎng)絡(luò)請求提交2、robots.txt:網(wǎng)絡(luò)爬蟲排除標(biāo)準(zhǔn)3、BeautifulSoup框架:解析HTML頁面4、Re框架:正則框架,提取頁面關(guān)鍵信息5、Scrapy框架:網(wǎng)絡(luò)爬蟲原理介紹,專業(yè)爬蟲框架介紹理念:The Website is the API …Python語言常用的IDE工具文本工具類IDE:IDLE、Notepad++、Sublime Text、Vim & Emacs、Atom、Komodo Edit集成工具IDE:PyCharm、Wing、PyDev & Eclipse、Visual Studio、Anaconda & Spyder、Canopy·IDLE是Python自帶的默認(rèn)的常用的入門級編寫工具,它包含交互式文件式兩種方式。適用于較短的程序?!ublime Text是專為程序員開發(fā)的第三方專用編程工具,可以提高編程體驗,具有多種編程風(fēng)格?!ing是Wingware公司提供的收費(fèi)IDE,調(diào)試功能豐富,具有版本控制,版本同步功能,適合于多人共同開發(fā)。適用于編寫大型程序?!isual Studio是微軟公司維護(hù)的,可以通過配置PTVS編寫Python,主要以Windows環(huán)境為主,調(diào)試功能豐富?!clipse是一款開源的IDE開發(fā)工具,可以通過配置PyDev來編寫Python,但是配置過程復(fù)雜,需要有一定的開發(fā)經(jīng)驗?!yCharm分為社區(qū)版和專業(yè)版,社區(qū)版免費(fèi),具有簡單、集成度高的特點,適用于編寫較復(fù)雜的工程。適用于科學(xué)計算、數(shù)據(jù)分析的IDE:·Canopy是由Enthought公司維護(hù)的收費(fèi)工具,支持近500個第三方庫,適合科學(xué)計算領(lǐng)域應(yīng)用開發(fā)?!naconda是開源免費(fèi)的,支持近800個第三方庫。Requests庫入門Requests的安裝:Requests庫是目前公認(rèn)的爬取網(wǎng)頁最好的Python第三方庫,具有簡單、簡捷的特點。官方網(wǎng)站:http://www.python-requests.org在"C:\Windows\System32"中找到"cmd.exe",使用管理員身份運(yùn)行,在命令行中輸入:“pip install requests”運(yùn)行。
使用IDLE測試Requests庫:>>> import requests
>>> r = requests.get("http://www.baidu.com")#抓取百度頁面
>>> r.status_code
>>> r.encoding = 'utf-8'
>>> r.text
1
2
3
4
5
Requests庫的7個主要方法
get()方法r = requests.get(url)get()方法構(gòu)造一個向服務(wù)器請求資源的Request對象,返回一個包含服務(wù)器資源的Response對象。requests.get(url, params=None, **kwargs)url:擬獲取頁面的url鏈接params:url中的額外參數(shù),字典或字節(jié)流格式,可選**kwargs:12個控制訪問參數(shù)Requests庫的2個重要對象· Request· Response:Response對象包含爬蟲返回的內(nèi)容Response對象的屬性r.status_code :HTTP請求的返回狀態(tài),200表示連接成功,404表示失敗r.text :HTTP響應(yīng)內(nèi)容的字符串形式,即,url對應(yīng)的頁面內(nèi)容r.encoding : 從HTTP header中猜測的相應(yīng)內(nèi)容編碼方式r.apparent_encoding : 從內(nèi)容中分析出的相應(yīng)內(nèi)容編碼方式(備選編碼方式)r.content : HTTP響應(yīng)內(nèi)容的二進(jìn)制形式r.encoding :如果header中不存在charset,則認(rèn)為編碼為ISO-8859-1 。r.apparent_encoding :根據(jù)網(wǎng)頁內(nèi)容分析出的編碼方式可以 看作是r.encoding的備選。Response的編碼:


r.encoding : 匯率查詢從HTTP header中猜測的響應(yīng)內(nèi)容的編碼方式;如果header中不存在charset,則認(rèn)為編碼為ISO-8859-1,r.text根據(jù)r.encoding顯示網(wǎng)頁內(nèi)容r.apparent_encoding : 根據(jù)網(wǎng)頁內(nèi)容分析出的編碼方式,可以看作r.encoding的備選爬取網(wǎng)頁的通用代碼框架Requests庫的異常
Response的異常r.raise_for_status() : 如果不是200,產(chǎn)生異常requests.HTTPError;在方法內(nèi)部判斷r.status_code是否等于200,不需要增加額外的if語句,該語句便于利用try-except進(jìn)行異常處理import requests
 
def getHTMLText(url):
  try:
    r = requests.get(url, timeout=30)
    r.raise_for_status() # 如果狀態(tài)不是200,引發(fā)HTTPError異常
    r.encoding = r.apparent_encoding
    return r.text
  except: 
    return "產(chǎn)生異常"
 
if __name__ == "__main__":
  url = "http://www.baidu.com"
  print(getHTMLText(url))
1
2
3
4
5
6
7
8
9
10
11
12
13
14
通用代碼框架,可以使用戶爬取網(wǎng)頁變得更有效,更穩(wěn)定、可靠。HTTP協(xié)議HTTP,Hypertext Transfer Protocol,超文本傳輸協(xié)議。HTTP是一個基于“請求與響應(yīng)”模式的、無狀態(tài)的應(yīng)用層協(xié)議。HTTP協(xié)議采用URL作為定位網(wǎng)絡(luò)資源的標(biāo)識。URL格式:http://host[:port][path]· host:合法的Internet主機(jī)域名或IP地址
· port:端口號,缺省端口號為80
· path:請求資源的路徑HTTP URL的理解:URL是通過HTTP協(xié)議存取資源的Internet路徑,一個URL對應(yīng)一個數(shù)據(jù)資源。HTTP協(xié)議對資源的操作
理解PATCH和PUT的區(qū)別假設(shè)URL位置有一組數(shù)據(jù)UserInfo,包括UserID、UserName等20個字段。需求:用戶修改了UserName,其他不變?!?采用PATCH,僅向URL提交UserName的局部更新請求。· 采用PUT,必須將所有20個字段一并提交到URL,未提交字段被刪除。PATCH的主要好處:節(jié)省網(wǎng)絡(luò)帶寬Requests庫主要方法解析requests.request(method, url, **kwargs)· method:請求方式,對應(yīng)get/put/post等7種例: r = requests.request(‘OPTIONS’, url, **kwargs)· url:擬獲取頁面的url鏈接· **kwargs:控制訪問的參數(shù),共13個,均為可選項params:字典或字節(jié)序列,作為參數(shù)增加到url中;kv = {'key1':'value1', 'key2':'value2'}
r = requests.request('GET', 'http://python123.io/ws',params=kv)
print(r.url)
'''
http://python123.io/ws?key1=value1&key2=value2
'''
1
2
3
4
5
6
data:字典、字節(jié)序列或文件對象,作為Request的內(nèi)容;json:JSON格式的數(shù)據(jù),作為Request的內(nèi)容;headers:字典,HTTP定制頭;hd = {'user-agent':'Chrome/10'}
 
r = requests.request('POST','http://www.yanlei.shop',headers=hd)
1
2
3
cookies:字典或CookieJar,Request中的cookie;auth:元組,支持HTTP認(rèn)證功能;files:字典類型,傳輸文件;fs = {'file':open('data.xls', 'rb')}
 
r = requests.request('POST','http://python123.io/ws',files=fs)
1
2
3
timeout:設(shè)定超時時間,秒為單位;proxies:字典類型,設(shè)定訪問代理服務(wù)器,可以增加登錄認(rèn)證allow_redirects:True/False,默認(rèn)為True,重定向開關(guān);stream:True/False,默認(rèn)為True,獲取內(nèi)容立即下載開關(guān);verify:True/False,默認(rèn)為True,認(rèn)證SSL證書開關(guān);cert:本地SSL證書路徑#方法及參數(shù)
requests.get(url, params=None, **kwargs)
requests.head(url, **kwargs)
requests.post(url, data=None, json=None, **kwargs)
requests.put(url, data=None, **kwargs)
requests.patch(url, data=None, **kwargs)
requests.delete(url, **kwargs)
1
2
3
4
5
6
7網(wǎng)絡(luò)爬蟲引發(fā)的問題性能騷擾:受限于編寫水平和目的,網(wǎng)絡(luò)爬蟲將會為web服務(wù)器帶來巨大的資源開銷法律風(fēng)險:服務(wù)器上的數(shù)據(jù)有產(chǎn)權(quán)歸屬,網(wǎng)路爬蟲獲取數(shù)據(jù)后牟利將帶來法律風(fēng)險。隱私泄露:網(wǎng)絡(luò)爬蟲可能具備突破簡單訪問控制的能力,獲得被保護(hù)數(shù)據(jù)從而泄露個人隱私。網(wǎng)絡(luò)爬蟲的限制·來源審查:加密貨幣http://www.gendan5.com/digitalcurrency/btc.html判斷User-Agent進(jìn)行限制



檢查來訪HTTP協(xié)議頭的User-Agent域,值響應(yīng)瀏覽器或友好爬蟲的訪問。· 發(fā)布公告:Roots協(xié)議告知所有爬蟲網(wǎng)站的爬取策咯,要求爬蟲遵守。Robots協(xié)議Robots Exclusion Standard 網(wǎng)絡(luò)爬蟲排除標(biāo)準(zhǔn)作用:網(wǎng)站告知網(wǎng)絡(luò)爬蟲哪些頁面可以抓取,哪些不行。形式:在網(wǎng)站根目錄下的robots.txt文件。案例:京東的Robots協(xié)議/tupian/20230522/robots.txt 注釋:*代表所有,/代表根目錄
User-agent: * 
Disallow: /?* 
Disallow: /pop/*.html 
Disallow: /pinpai/*.html?* 
User-agent: EtaoSpider 
Disallow: / 
User-agent: HuihuiSpider 
Disallow: / 
User-agent: GwdangSpider 
Disallow: / 
User-agent: WochachaSpider 
Disallow: /
1
2
3
4
5
6
7
8
9
10
11
12
13
Robots協(xié)議的使用網(wǎng)絡(luò)爬蟲:自動或人工識別robots.txt,再進(jìn)行內(nèi)容爬取。
  約束性:Robots協(xié)議是建議但非約束性,網(wǎng)絡(luò)爬蟲可以不遵守,但存在法律風(fēng)險。Requests庫網(wǎng)絡(luò)爬蟲實戰(zhàn)1、京東商品import requests
url = "/tupian/20230522/d = requests.get(url)
 r.raise_for_status()
 r.encoding = r.apparent_encoding
 print(r.text[:1000])
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
2、亞馬遜商品# 直接爬取亞馬遜商品是會被拒絕訪問,所以需要添加'user-agent'字段
import requests
url = "https://www.amazon.cn/gp/product/B01M8L5Z3Y"
try:
 kv = {'user-agent':'Mozilla/5.0'} # 使用代理訪問
 r = requests.get(url, headers = kv)
 r.raise_for_status()
 r.encoding = r.apparent_encoding
 print(t.text[1000:2000])
except:
 print("爬取失敗"
1
2
3
4
5
6
7
8
9
10
11
3、百度/360搜索關(guān)鍵詞提交搜索引擎關(guān)鍵詞提交接口· 百度的關(guān)鍵詞接口:/tupian/20230522/s 360的關(guān)鍵詞接口:/tupian/20230522/s 百度
import requests
keyword = "Python"
try:
 kv = {'wd':keyword}
 r = requests.get("http://www.baidu.com/s",params=kv)
 print(r.request.url)
 r.raise_for_status()
 print(len(r.text))
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
10
11
# 360
import requests
keyword = "Python"
try:
 kv = {'q':keyword}
 r = requests.get("http://www.so.com/s",params=kv)
 print(r.request.url)
 r.raise_for_status()
 print(len(r.text))
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
10
11
4、網(wǎng)絡(luò)圖片的爬取和存儲網(wǎng)絡(luò)圖片鏈接的格式:http://www.example.com/picture.jpg國家地理:http://www.nationalgeographic.com.cn/選擇一張圖片鏈接:/tupian/20230522/45150.jpg圖片爬取全代碼
import requests
import os
url = "/tupian/20230522/404.html = "D://pics//"
path = root + url.split('/')[-1]
try:
 if not os.path.exists(root):
  os.mkdir(root)
 if not os.path.exists(path):
  r = requests.get(url)
  with open(path,'wb') as f:
   f.write(r.content)
   f.close()
   print("文件保存成功")
 else:
  print("文件已存在")
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
5、IP地址歸屬地的自動查詢www.ip138.com IP查詢/tupian/20230522/ips138.asp requests
url = "/tupian/20230522/ = "220.204.80.112"
try:
 r = requests.get(url + ip)
 r.raise_for_status()
 r.encoding = r.apparent_encoding
 print(r.text[1900:])
except:
 print("爬取失敗")
1
2
3
4
5
6
7
8
9
10
# 使用IDLE
>>> import requests
>>> url ="/tupian/20230522/ ip = "220.204.80.112"
>>> r = requests.get(url + ip)
>>> r.status_code
>>> r.text

看完上述內(nèi)容,你們掌握怎么利用Python網(wǎng)絡(luò)爬蟲來提取信息的方法了嗎?如果還想學(xué)到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道,感謝各位的閱讀!

網(wǎng)站題目:怎么利用Python網(wǎng)絡(luò)爬蟲來提取信息-創(chuàng)新互聯(lián)
路徑分享:http://jinyejixie.com/article44/cshjee.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供App開發(fā)、移動網(wǎng)站建設(shè)、網(wǎng)站排名、企業(yè)網(wǎng)站制作網(wǎng)站策劃、營銷型網(wǎng)站建設(shè)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

營銷型網(wǎng)站建設(shè)
仲巴县| 邯郸县| 西充县| 金堂县| 临泽县| 海宁市| 偏关县| 太谷县| 红桥区| 巴彦县| 辽阳市| 资阳市| 白山市| 嘉禾县| 辽源市| 冷水江市| 万年县| 离岛区| 上犹县| 建阳市| 灵武市| 肇州县| 荆州市| 龙里县| 和硕县| 石家庄市| 扬中市| 惠来县| 德保县| 威信县| 施甸县| 寿光市| 平阳县| 丽江市| 昭通市| 诸暨市| 伊通| 阳东县| 周口市| 山阴县| 织金县|