創(chuàng)新互聯(lián)www.cdcxhl.cn八線動態(tài)BGP香港云服務(wù)器提供商,新人活動買多久送多久,劃算不套路!
了解Python爬取如何分析去哪兒網(wǎng)部分城市門票售賣情況?這個(gè)問題可能是我們?nèi)粘W(xué)習(xí)或工作經(jīng)常見到的。希望通過這個(gè)問題能讓你收獲頗深。下面是小編給大家?guī)淼膮⒖純?nèi)容,讓我們一起來看看吧!
通過分析去哪兒網(wǎng)部分城市門票售賣情況,簡單的分析一下哪些景點(diǎn)比較受歡迎。
用到的Python模塊
BeautifulSoup、requests、pymongo、pylab
方法
通過請求https://piao.qunar.com/ticket/list.htm?keyword=北京 ,獲取北京地區(qū)熱門景區(qū)信息,再通過BeautifulSoup去分析提取出我們需要的信息。
這里為了偷懶只爬取了前4頁的景點(diǎn)信息,每頁有15個(gè)景點(diǎn)。因?yàn)槿ツ膬翰]有什么反爬措施,所以直接請求就可以了。
這里只是隨機(jī)選擇了13個(gè)熱門城市:北京, 上海, 成都, 三亞, 廣州, 重慶, 深圳, 西安, 杭州, 廈門, 武漢, 大連, 蘇州。
并將爬取的數(shù)據(jù)存到了MongoDB數(shù)據(jù)庫 。
爬蟲部分完整代碼如下
import requests from bs4 import BeautifulSoup from pymongo import MongoClient class QuNaEr(): def __init__(self, keyword, page=1): self.keyword = keyword self.page = page def qne_spider(self): url = 'https://piao.qunar.com/ticket/list.htm?keyword=%s®ion=&from=mpl_search_suggest&page=%s' % (self.keyword, self.page) response = requests.get(url) response.encoding = 'utf-8' text = response.text bs_obj = BeautifulSoup(text, 'html.parser') arr = bs_obj.find('div', {'class': 'result_list'}).contents for i in arr: info = i.attrs # 景區(qū)名稱 name = info.get('data-sight-name') # 地址 address = info.get('data-address') # 近期售票數(shù) count = info.get('data-sale-count') # 經(jīng)緯度 point = info.get('data-point') # 起始價(jià)格 price = i.find('span', {'class': 'sight_item_price'}) price = price.find_all('em') price = price[0].text conn = MongoClient('localhost', port=27017) db = conn.QuNaEr # 庫 table = db.qunaer_51 # 表 table.insert_one({ 'name' : name, 'address' : address, 'count' : int(count), 'point' : point, 'price' : float(price), 'city' : self.keyword }) if __name__ == '__main__': citys = ['北京', '上海', '成都', '三亞', '廣州', '重慶', '深圳', '西安', '杭州', '廈門', '武漢', '大連', '蘇州'] for i in citys: for page in range(1, 5): qne = QuNaEr(i, page=page) qne.qne_spider()
有了數(shù)據(jù),我們就可以分析出自己想要的東西了
最受歡迎的15個(gè)景區(qū)
由圖可以看出,在選擇的13個(gè)城市中,最熱門的景區(qū)為上海的迪士尼樂園
導(dǎo)入數(shù)據(jù)庫,代碼如下
from pymongo import MongoClient # 設(shè)置字體,不然無法顯示中文 from pylab import * mpl.rcParams['font.sans-serif'] = ['SimHei'] conn = MongoClient('localhost', port=27017) db = conn.QuNaEr # 庫 table = db.qunaer_51 # 表 result = table.find().sort([('count', -1)]).limit(15) # x,y軸數(shù)據(jù) x_arr = [] # 景區(qū)名稱 y_arr = [] # 銷量 for i in result: x_arr.append(i['name']) y_arr.append(i['count']) """ 去哪兒月銷量排行榜 """ plt.bar(x_arr, y_arr, color='rgb') # 指定color,不然所有的柱體都會是一個(gè)顏色 plt.gcf().autofmt_xdate() # 旋轉(zhuǎn)x軸,避免重疊 plt.xlabel(u'景點(diǎn)名稱') # x軸描述信息 plt.ylabel(u'月銷量') # y軸描述信息 plt.title(u'拉鉤景點(diǎn)月銷量統(tǒng)計(jì)表') # 指定圖表描述信息 plt.ylim(0, 4000) # 指定Y軸的高度 plt.savefig('去哪兒月銷售量排行榜') # 保存為圖片 plt.show()
感謝各位的閱讀!看完上述內(nèi)容,你們對Python爬取如何分析去哪兒網(wǎng)部分城市門票售賣情況大概了解了嗎?希望文章內(nèi)容對大家有所幫助。如果想了解更多相關(guān)文章內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道。
文章題目:Python爬取如何分析去哪兒網(wǎng)部分城市門票售賣情況-創(chuàng)新互聯(lián)
當(dāng)前地址:http://jinyejixie.com/article22/dpcgcc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站收錄、網(wǎng)站制作、外貿(mào)網(wǎng)站建設(shè)、服務(wù)器托管、全網(wǎng)營銷推廣、企業(yè)網(wǎng)站制作
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容