成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

用Python寫一個小白也能懂的分布式知乎爬蟲

開發 后端 分布式
很早就有采集知乎用戶數據的想法,要實現這個想法,需要寫一個網絡爬蟲(Web Spider)。因為在學習 python,正好 python 寫爬蟲也是極好的選擇,于是就寫了一個基于 python 的網絡爬蟲。

很早就有采集知乎用戶數據的想法,要實現這個想法,需要寫一個網絡爬蟲(Web Spider)。因為在學習 python,正好 python 寫爬蟲也是極好的選擇,于是就寫了一個基于 python 的網絡爬蟲。

幾個月前寫了爬蟲的初版,后來因為一些原因,暫時擱置了下來,最近重新拾起這個想法。首先優化了代碼的結構,然后在學弟的提醒下,從多線程改成了多進程,一臺機器上運行一個爬蟲程序,會啟動幾百個子進程加速抓取。

但是一臺機器的性能是有極限的,所以后來我使用 MongoDB 和 Redis 搭建了一個主從結構的分布式爬取系統,來進一步加快抓取的速度。

然后我就去好幾個服務器廠商申請免費的試用,比如百度云、騰訊云、Ucloud…… 加上自己的筆記本,斷斷續續抓取了一個多周,才采集到300萬知乎用戶數據。中間還跑壞了運行網站的云主機,還好 自動備份 起作用,數據沒有丟失,但那又是另外一個故事了……

廢話不多說,下面我介紹一下如何寫一個簡單的分布式知乎爬蟲。

抓取知乎用戶的個人信息

給大家推薦一個學習交流的地方,想要學習Python的小伙伴可以一起來學習,719+139+688,入坑需謹慎,對Python沒啥興趣的就不要來湊熱鬧啦。我們要抓取知乎用戶數據,首先要知道在哪個頁面可以抓取到用戶的數據。知乎用戶的個人信息在哪里呢,當然是在用戶的主頁啦,我們以輪子哥為例 ~

 

用Python寫一個小白也能懂的分布式知乎爬蟲

紅框里的便我們要抓取的用戶關鍵信息(的一部分)。

最上面是我們的目標URL:https://www.zhihu.com/people/excited-vczh/answers。

觀察一下這個URL的組成:

  • http://www.zhihu.com + /people + /excited-vczh + /answer

可以發現只有 excited-vczh 這部分是會變化的,它代表著知乎用戶的唯一ID,在知乎的數據格式中,它的鍵名叫做 urlToken。

所以我們可以用拼接字符串的形式,得到我們待抓取頁面的URL:

  1. url = '%s/people/%s/answers'%(host,urlToken) 

頁面URL有了,而且從上圖我們可以發現 不登錄 也可以訪問用戶主頁,這說明我們可以不用考慮模擬登陸的問題,可以自由的獲取用戶主頁面源碼。

那么我們如何從用戶主頁的源碼中獲取用戶的數據呢?一開始我以為需要挨個匹配頁面中對應的部分,但我查看源碼的時候發現知乎把用戶數據集集中放到了源碼的一個地方,那就是 id="data" 的 div 的 data-state 屬性的值中,看下圖:

 

用Python寫一個小白也能懂的分布式知乎爬蟲

從上圖我們可以發現,date-state 的屬性值中藏有用戶的信息,比如我們可以依次找到用戶的教育經歷(educations)、簡介(headline)、參與的 Live 數量(participatedLiveCount)、關注的收藏夾數量(followingFavlistsCount)、被收藏的次數(favoritedCount)、關注他的用戶數(followerCount)、關注的話題數量(followingTopicCount)、用戶描述(description)等信息。通過觀察我們也可以發現,數據應該是以 JSON 格式存儲。

知道了用戶數據都藏在 date-state 中,我們 用 BeautifulSoup 把該屬性的值取出來,然后作為 JSON 格式讀取,再把數據集中存儲用戶數據的部分提取出來即可,看代碼:

 

  1. # 解析htmls = BS(html,'html.parser')# 獲得該用戶藏在主頁面中的json格式數據集data = s.find('div',attrs={'id':'data'})['data-state' 
  2. data = json.loads(data)  
  3. data = data['entities']['users'][urlToken] 

如此,我們便得到了某一個用戶的個人信息。

抓取知乎用戶的關注者列表

剛剛我們討論到可以通過抓取用戶主頁面源碼來獲取個人信息,而用戶主頁面可以通過拼接字符串的形式得到 URL,其中拼接的關鍵是 如何獲取用戶唯一ID —— urlToken?

我采用的方法是 抓取用戶的關注者列表。

每個用戶都會有關注者列表,比如輪子哥的:

 

用Python寫一個小白也能懂的分布式知乎爬蟲

 

用Python寫一個小白也能懂的分布式知乎爬蟲

和獲取個人信息同樣的方法,我們可以在該頁面源碼的 date-state 屬性值中找到關注他的用戶(一部分):

 

用Python寫一個小白也能懂的分布式知乎爬蟲

名為 ids 的鍵值中存儲有當前列表頁的所有用戶的 urlToken,默認列表的每一頁顯示20個用戶,所以我們寫一個循環便可以獲取當前頁該用戶的所有關注者的 urlToken。

 

  1. # 解析當前頁的 html url = '%s/people/%s/followers?page=%d'%(host,urlToken,page)  
  2. html = c.get_html(url)  
  3. s = BS(html,'html.parser')# 獲得當前頁的所有關注用戶data = s.find('div',attrs={'id':'data'})['data-state' 
  4. data = json.loads(data)  
  5. items = data['people']['followersByUser'][urlToken]['ids']for item in items: if item!=None and item!=False and item!=True and item!='知乎用戶'.decode('utf8'): 
  6. node = item.encode('utf8' 
  7. follower_list.append(node) 

再寫一個循環遍歷關注者列表的所有頁,便可以獲取用戶的所有關注者的 urlToken。

有了每個用戶在知乎的唯一ID,我們便可以通過拼接這個ID得到每個用戶的主頁面URL,進一步獲取到每個用戶的個人信息。

我選擇抓取的是用戶的關注者列表,即關注這個用戶的所有用戶(follower)的列表,其實你也可以選擇抓取用戶的關注列表(following)。我希望抓取更多知乎非典型用戶(潛水用戶),于是選擇了抓取關注者列表。當時抓取的時候有這樣的擔心,萬一這樣抓不到主流用戶怎么辦?畢竟很多知乎大V雖然關注者很多,但是主動關注的人相對都很少,而且關注的很可能也是大V。但事實證明,主流用戶基本都抓取到了,看來基數提上來后,總有縫隙出現。

反爬蟲機制

頻繁抓取會被知乎封IP,也就是常說的反爬蟲手段之一,不過俗話說“道高一尺,魔高一丈”,既然有反爬蟲手段,那么就一定有反反爬蟲手段,咳,我自己起的名……

言歸正傳,如果知乎封了你的IP,那么怎么辦呢?很簡單,換一個IP。這樣的思想催生了 代理IP池 的誕生。所謂代理IP池,是一個代理IP的集合,使用代理IP可以偽裝你的訪問請求,讓服務器以為你來自不同的機器。

于是我的 應對知乎反爬蟲機制的策略 就很簡單了:全力抓取知乎頁面 --> 被知乎封IP --> 換代理IP --> 繼續抓 --> 知乎繼續封 --> 繼續換 IP..... (手動斜眼)

使用 代理IP池,你可以選擇用付費的服務,也可以選擇自己寫一個,或者選擇用現成的輪子。我選擇用七夜寫的 qiyeboy/IPProxyPool 搭建代理池服務,部署好之后,修改了一下代碼讓它只保存https協議的代理IP,因為 使用http協議的IP訪問知乎會被拒絕。

搭建好代理池服務后,我們便可以隨時在代碼中獲取以及使用代理 IP 來偽裝我們的訪問請求啦!

(其實反爬手段有很多,代理池只是其中一種)

簡單的分布式架構

多線程/多進程只是***限度的利用了單臺機器的性能,如果要利用多臺機器的性能,便需要分布式的支持。

如何搭建一個簡單的分布式爬蟲?

我采用了 主從結構,即一臺主機負責調度、管理待抓取節點,多臺從機負責具體的抓取工作。

具體到這個知乎爬蟲來說,主機上搭建了兩個數據庫:MongoDB 和 Redis。MongoDB 負責存儲抓取到的知乎用戶數據,Redis 負責維護待抓取節點集合。從機上可以運行兩個不同的爬蟲程序,一個是抓取用戶關注者列表的爬蟲(list_crawler),一個是抓取用戶個人資料的爬蟲(info_crawler),他們可以配合使用,但是互不影響。

我們重點講講主機上維護的集合,主機的 Redis 數據庫中一共維護了5個集合:

  1. waiting:待抓取節點集合
  2. info_success:個人信息抓取成功節點集合
  3. info_failed:個人信息抓取失敗節點集合
  4. list_success:關注列表抓取成功節點集合
  5. list_failed:關注列表抓取失敗節點集合

這里插一句,之所以采用集合(set),而不采用隊列(queue),是因為集合天然的帶有唯一性,也就是說可以加入集合的節點一定是集合中沒有出現過的節點,這里在5個集合中流通的節點其實是 urlToken。

(其實集合可以縮減為3個,省去失敗集合,失敗則重新投入原來的集合,但我為了測速所以保留了5個集合的結構)

他們的關系是:

 

用Python寫一個小白也能懂的分布式知乎爬蟲

舉個具體的栗子:從一個 urlToken 在 waiting 集合中出現開始,經過一段時間,它被 info_crawler 爬蟲程序從 waiting 集合中隨機獲取到,然后在 info_crawler 爬蟲程序中抓取個人信息,如果抓取成功將個人信息存儲到主機的 MongoDB 中,將該 urlToken 放到 info_success 集合中;如果抓取失敗則將該 urlToken 放置到 info_failed 集合中。下一個階段,經過一段時間后,list_crawler 爬蟲程序將從 info_success 集合中隨機獲取到該 urlToken,然后嘗試抓取該 urlToken 代表用戶的關注者列表,如果關注者列表抓取成功,則將抓取到的所有關注者放入到 waiting 集合中,將該 urlToken 放到 list_success 集合中;如果抓取失敗,將該 urlToken 放置到 list_failed 集合中。

如此,主機維護的數據庫,配合從機的 info_crawler 和 list_crawler 爬蟲程序,便可以循環起來:info_crawler 不斷從 waiting 集合中獲取節點,抓取個人信息,存入數據庫;list_crawler 不斷的補充 waiting 集合。

主機和從機的關系如下圖:

 

用Python寫一個小白也能懂的分布式知乎爬蟲

主機是一臺外網/局域網可以訪問的“服務器”,從機可以是PC/筆記本/Mac/服務器,這個架構可以部署在外網也可以部署在內網。

責任編輯:未麗燕 來源: 云棲社區
相關推薦

2016-09-30 10:13:07

分布式爬蟲系統

2021-09-07 09:26:13

Python 開發編程語言

2025-04-14 00:00:00

MCPjson 信息地理編碼

2018-07-23 08:32:49

分布式鏡像倉庫

2017-06-16 21:00:02

Python爬蟲

2025-02-26 00:48:32

2018-05-22 15:30:30

Python網絡爬蟲分布式爬蟲

2020-07-30 09:35:09

Redis分布式鎖數據庫

2022-06-27 08:36:27

分布式事務XA規范

2015-04-21 09:39:03

javajava分布式爬蟲

2017-05-24 15:07:19

Python爬蟲爬取

2021-06-24 10:27:48

分布式架構系統

2021-10-25 10:33:29

Python 開發編程語言

2021-06-25 10:45:43

Netty 分布式框架 IO 框架

2014-03-12 10:42:10

equeue分布式消息隊列

2018-05-09 09:44:51

Java分布式系統

2017-09-11 15:17:01

分布式集群負載均衡

2013-09-11 16:02:00

Spark分布式計算系統

2022-04-14 07:56:30

公平鎖Java線程

2024-02-19 00:00:00

Redis分布式
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产97在线 | 日韩 | 欧美中文字幕 | 日韩一区二区三区在线看 | 欧美日韩在线观看一区二区三区 | 99精品在线| 精品不卡 | 男女羞羞在线观看 | 午夜在线免费观看视频 | 欧美日韩综合精品 | 亚洲精品日韩欧美 | 亚洲精品免费观看 | 9999在线视频 | 精品久久久久久亚洲精品 | 亚洲国产成人精品在线 | 国产精品观看 | av在线一区二区三区 | 中文字幕一区在线 | 亚洲国产一| 午夜丰满少妇一级毛片 | 亚洲欧美综合网 | 五月婷婷导航 | 99热视 | 成人在线一区二区 | 中文日韩在线视频 | 国产精品日韩欧美一区二区三区 | 亚洲精品乱码久久久久久黑人 | 国产精品国产精品国产专区不卡 | 毛片99| 一区二区在线不卡 | 日批日韩在线观看 | 九九九视频在线观看 | 国产精品自产拍在线观看蜜 | 欧美成人一区二区三区片免费 | 国产欧美日韩一区二区三区 | 亚洲在线| 久久精品亚洲欧美日韩精品中文字幕 | 久久大陆| 激情福利视频 | 国产精品96久久久久久 | 欧美美女一区二区 | 综合久久一区 |