這篇文章主要介紹Python如何爬取新型冠狀病毒“謠言”新聞進(jìn)行數(shù)據(jù)分析,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!
網(wǎng)站建設(shè)哪家好,找成都創(chuàng)新互聯(lián)公司!專注于網(wǎng)頁設(shè)計(jì)、網(wǎng)站建設(shè)、微信開發(fā)、小程序制作、集團(tuán)企業(yè)網(wǎng)站建設(shè)等服務(wù)項(xiàng)目。為回饋新老客戶創(chuàng)新互聯(lián)還提供了辰溪免費(fèi)建站歡迎大家使用!一、爬取數(shù)據(jù)
代碼
import requests import pandas as pd class SpiderRumor(object): def __init__(self): self.url = "https://vp.fact.qq.com/loadmore?artnum=0&page=%s" self.header = { "User-Agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit/604.1.38 (KHTML, like Gecko) Version/11.0 Mobile/15A372 Safari/604.1", } def spider_run(self): df_all = list() for url in [self.url % i for i in range(30)]: data_list = requests.get(url, headers=self.header).json()["content"] temp_data = [[df["title"], df["date"], df["result"], df["explain"], df["tag"]] for df in data_list] df_all.extend(temp_data) print(temp_data[0]) pd.DataFrame(df_all, columns=["title", "date", "result", "explain", "tag"]).to_csv("冠狀病毒謠言數(shù)據(jù).csv", encoding="utf_8_sig") if __name__ == '__main__': spider = SpiderRumor() spider.spider_run()
爬蟲過程
二、數(shù)據(jù)分析
數(shù)據(jù)展示
每日謠言數(shù)量
由圖可得:1月24日和1月25日是謠言的高峰期,讓我們來看看這兩天的數(shù)據(jù):
由上圖得知 一月二十四號(hào)和二十號(hào)傳播的 29 條謠言中 96.55% 都是假的
謠言是否屬實(shí)占比
從1月18日到今日截止2月14日共發(fā)現(xiàn)了300條謠言,右上圖可得:76.33% 都是假的,只要 7.00% 是屬實(shí)的,其中 14.33% 的謠言屬于 偽科學(xué) 而且 還有 8.00% 屬于尚無定論憑空捏造出的,需要多注意??
謠言的關(guān)鍵字展示
下面介紹 matplotlib 繪制餅圖的代碼
import numpy as np import pandas as pd import matplotlib.pyplot as plt # Windows系統(tǒng)設(shè)置中文字體 plt.rcParams['font.sans-serif']=['SimHei'] plt.rcParams['axes.unicode_minus'] = False data = pd.read_csv("/冠狀病毒謠言數(shù)據(jù).csv"") labels = data["explain"].value_counts().index.tolist() sizes = data["explain"].value_counts().values.tolist() colors = ['lightgreen', 'gold', 'lightskyblue', 'lightcoral'] plt.figure(figsize=(15,8)) plt.pie(sizes, labels=labels, colors=colors, autopct='%1.1f%%', shadow=True, startangle=50) # shadow=True 表示陰影 plt.axis('equal') # 使圖居中 plt.show()
繪制謠言關(guān)鍵字分布圖(觀察 tag 這個(gè)字段)
由于 tag 這個(gè)字段內(nèi)容是列表,我們?nèi)〕鰜砗笫橇斜砬短琢斜恚篬[a, b], [b, c], [c, d]] 我們要使用一行列表生成式快速的將所以的關(guān)鍵字取出來 [j for i in a for j in i]
import numpy as np import pandas as pd import matplotlib.pyplot as plt # Windows系統(tǒng)設(shè)置中文字體 plt.rcParams['font.sans-serif']=['SimHei'] plt.rcParams['axes.unicode_minus'] = False data = pd.read_csv("/冠狀病毒謠言數(shù)據(jù).csv"") df = pd.Series([j for i in [eval(i) for i in data["tag"].tolist()] for j in i]).value_counts()[:20] X = df.index.tolist() y = df.values.tolist() plt.figure(figsize=(15, 8)) # 設(shè)置畫布 plt.bar(X, y, color="orange") plt.tight_layout() # plt.grid(axis="y") plt.grid(ls='-.') plt.show()
以上是“Python如何爬取新型冠狀病毒“謠言”新聞進(jìn)行數(shù)據(jù)分析”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對(duì)大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!
分享標(biāo)題:Python如何爬取新型冠狀病毒“謠言”新聞進(jìn)行數(shù)據(jù)分析-創(chuàng)新互聯(lián)
分享鏈接:http://jinyejixie.com/article24/dehdce.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站設(shè)計(jì)、用戶體驗(yàn)、ChatGPT、定制開發(fā)、自適應(yīng)網(wǎng)站、關(guān)鍵詞優(yōu)化
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容