成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

普通反爬蟲機制的應對策略

開發 前端
這篇文章主要討論使用Scrapy框架時,如何應對普通的反爬機制。

爬蟲與反爬蟲,這相愛相殺的一對,簡直可以寫出一部壯觀的斗爭史。而在大數據時代,數據就是金錢,很多企業都為自己的網站運用了反爬蟲機制,防止網頁上的數據被爬蟲爬走。然而,如果反爬機制過于嚴格,可能會誤傷到真正的用戶請求;如果既要和爬蟲死磕,又要保證很低的誤傷率,那么又會加大研發的成本。

簡單低級的爬蟲速度快,偽裝度低,如果沒有反爬機制,它們可以很快的抓取大量數據,甚至因為請求過多,造成服務器不能正常工作。而偽裝度高的爬蟲爬取速度慢,對服務器造成的負擔也相對較小。所以,網站反爬的重點也是那種簡單粗暴的爬蟲,反爬機制也會允許偽裝度高的爬蟲,獲得數據。畢竟偽裝度很高的爬蟲與真實用戶也就沒有太大差別了。

[[189831]]

這篇文章主要討論使用Scrapy框架時,如何應對普通的反爬機制。

header檢驗

最簡單的反爬機制,就是檢查HTTP請求的Headers信息,包括User-Agent, Referer、Cookies等。

User-Agent

User-Agent是檢查用戶所用客戶端的種類和版本,在Scrapy中,通常是在下載器中間件中進行處理。比如在setting.py中建立一個包含很多瀏覽器User-Agent的列表,然后新建一個random_user_agent文件:

 

  1. class RandomUserAgentMiddleware(object): 
  2.     @classmethod 
  3.     defprocess_request(cls, request, spider): 
  4.         ua = random.choice(spider.settings['USER_AGENT_LIST']) 
  5.         if ua: 
  6.             request.headers.setdefault('User-Agent', ua) 

這樣就可以在每次請求中,隨機選取一個真實瀏覽器的User-Agent。

Referer

Referer是檢查此請求由哪里來,通常可以做圖片的盜鏈判斷。在Scrapy中,如果某個頁面url是通過之前爬取的頁面提取到,Scrapy會自動把之前爬取的頁面url作為Referfer。也可以通過上面的方式自己定義Referfer字段。

Cookies

網站可能會檢測Cookie中session_id的使用次數,如果超過限制,就觸發反爬策略。所以可以在Scrapy中設置 COOKIES_ENABLED = False 讓請求不帶Cookies。

也有網站強制開啟Cookis,這時就要麻煩一點了。可以另寫一個簡單的爬蟲,定時向目標網站發送不帶Cookies的請求,提取響應中Set-cookie字段信息并保存。爬取網頁時,把存儲起來的Cookies帶入Headers中。

X-Forwarded-For

在請求頭中添加X-Forwarded-For字段,將自己申明為一個透明的代理服務器,一些網站對代理服務器會手軟一些。

X-Forwarded-For頭一般格式如下

  1. X-Forwarded-For: client1, proxy1, proxy2 

這里將client1,proxy1設置為隨機IP地址,把自己的請求偽裝成代理的隨機IP產生的請求。然而由于X-Forwarded-For可以隨意篡改,很多網站并不會信任這個值。

限制IP的請求數量

如果某一IP的請求速度過快,就觸發反爬機制。當然可以通過放慢爬取速度繞過,這要以爬取時間大大增長為代價。另一種方法就是添加代理。

很簡單,在下載器中間件中添加:

  1. request.meta['proxy'] = 'http://' + 'proxy_host' + ':' + proxy_port 

然后再每次請求時使用不同的代理IP。然而問題是如何獲取大量的代理IP?

可以自己寫一個IP代理獲取和維護系統,定時從各種披露免費代理IP的網站爬取免費IP代理,然后定時掃描這些IP和端口是否可用,將不可用的代理IP及時清理。這樣就有一個動態的代理庫,每次請求再從庫中隨機選擇一個代理。然而這個方案的缺點也很明顯,開發代理獲取和維護系統本身就很費時費力,并且這種免費代理的數量并不多,而且穩定性都比較差。如果必須要用到代理,也可以去買一些穩定的代理服務。這些服務大多會用到帶認證的代理。

在requests庫中添加帶認證的代理很簡單,

 

  1. proxies = { 
  2.     "http""http://user:pass@10.10.1.10:3128/"

然而Scrapy不支持這種認證方式,需要將認證信息base64編碼后,加入Headers的Proxy-Authorization字段:

 

  1. importbase64   
  2. Set the location of the proxy 
  3. proxy_string = choice(self._get_proxies_from_file('proxies.txt')) # user:pass@ip:port 
  4. proxy_items = proxy_string.split('@'
  5. request.meta['proxy'] = "http://%s" % proxy_items[1] 
  6.   
  7. # setup basic authentication for the proxy 
  8. user_pass=base64.encodestring(proxy_items[0]) 
  9. request.headers['Proxy-Authorization'] = 'Basic ' + user_pass 

動態加載

現在越來越多的網站使用ajax動態加載內容,這時候可以先截取ajax請求分析一下,有可能根據ajax請求構造出相應的API請求的URL就可以直接獲取想要的內容,通常是json格式,反而還不用去解析HTML。

然而,很多時候ajax請求都會經過后端鑒權,不能直接構造URL獲取。這時就可以通過PhantomJS+Selenium模擬瀏覽器行為,抓取經過js渲染后的頁面。

需要注意的是,使用Selenium后,請求不再由Scrapy的Downloader執行,所以之前添加的請求頭等信息都會失效,需要在Selenium中重新添加

 

  1. headers = {...} 
  2. for key, valuein headers.iteritems(): 
  3.     webdriver.DesiredCapabilities.PHANTOMJS['phantomjs.page.customHeaders.{}'.format(key)] = value 

另外,調用PhantomJs需要指定PhantomJs的可執行文件路徑,通常是將該路徑添加到系統的path路徑,讓程序執行時自動去path中尋找。我們的爬蟲經常會放到crontab中定時執行,而crontab中的環境變量和系統的環境變量不同,所以就加載不到PhamtonJs需要的路徑,所以***是在申明時指定路徑:

  1. driver = webdriver.PhantomJS(executable_path='/usr/local/bin/phantomjs'
責任編輯:未麗燕 來源: 36大數據
相關推薦

2017-05-15 10:39:48

爬蟲應對機制

2024-06-07 08:56:43

HTTPPythonSelenium

2010-09-27 13:33:26

JVM異常

2013-12-16 11:18:42

多核

2010-11-29 10:11:05

Sybase數據庫死鎖

2021-12-31 16:10:46

穩定幣數字貨幣貨幣

2012-10-09 15:50:19

IPv6

2021-02-26 10:51:18

云安全云計算網絡安全

2024-01-29 10:34:37

Java編程

2011-05-25 19:53:45

SEO

2024-07-29 00:01:00

RabbitMQ消息堆積

2011-05-24 17:47:40

2014-01-16 09:56:26

IPv6商用部署策略

2011-11-29 13:45:36

思科三網融合

2011-05-24 10:02:47

2014-06-04 17:35:12

2013-11-19 15:48:34

電商安全網購安全

2024-05-22 08:00:00

2025-06-30 07:30:00

CIO首席信息官IT

2024-11-11 14:23:11

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 在线中文字幕视频 | 日韩成人精品一区 | 国产精品日韩一区 | 欧美日韩福利视频 | 国产一级淫片免费视频 | 久久成人高清视频 | 国产精品一区视频 | 五月综合激情网 | 亚洲36d大奶网 | 国产在线对白 | 精品av| 亚洲va在线va天堂va狼色在线 | 国产欧美在线视频 | 久久精品色欧美aⅴ一区二区 | 色吧综合| 九九久久精品 | 蜜桃免费一区二区三区 | 国产成人一区二区三区 | 日韩和的一区二区 | 3级毛片| 日韩一级黄色毛片 | 香蕉视频91 | 日韩性生活网 | 久草综合在线 | 亚洲成人一二三 | 国产1区在线| 国产三级日本三级 | 亚洲高清在线 | 在线日韩av电影 | 欧美区在线 | 欧美精品99| av资源中文在线 | 91玖玖 | 国产在线中文字幕 | 免费爱爱视频 | 久久婷婷av | 秋霞a级毛片在线看 | 亚洲永久字幕 | 国产清纯白嫩初高生在线播放视频 | 国产一区二区精品在线 | 日韩影院在线观看 |