成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何用Python編寫信息收集之子域名收集腳本?

開發(fā) 后端
本文使用Python腳本借助搜索引擎搜集網(wǎng)站子域名信息。其實(shí)子域名挖掘就是一個(gè)小小的爬蟲,只不過我們是用百度的引擎來爬取。

如何用Python編寫信息收集之子域名收集腳本

0×00 前言

任務(wù):

使用腳本借助搜索引擎搜集網(wǎng)站子域名信息。

準(zhǔn)備工具:

python安裝包、pip、http請(qǐng)求庫:requests庫、正則庫:re庫。

子域名是相對(duì)于網(wǎng)站的主域名的。比如百度的主域名為:baidu.com,這是一個(gè)***域名,而在***域名前由"."隔開加上不同的字符,比如zhidao.baidu.com,那么這就是一個(gè)二級(jí)域名,同理,繼續(xù)擴(kuò)展主域名的主機(jī)名,如club.user.baidu.com,這就是一個(gè)三級(jí)域名,依次類推。

0X00 正文

手動(dòng)收集子域名是怎樣的一種過程?

舉個(gè)例子,比如我們要收集qq.com這個(gè)主域名,在百度搜索引擎能夠搜索到的所有子域名。

首先,使用搜索域名的語法搜索~

搜索域名語法:site:qq.com

然后,在搜索結(jié)果中存在我們要的子域名信息,我們可以右鍵,查看元素,復(fù)制出來。

 

如何用python替代手工的繁瑣操作?

其實(shí)就是將手工收集用代碼來實(shí)現(xiàn)自動(dòng)化,手工收集的步驟:

 

收集器制作開始:

1.發(fā)起一個(gè)搜索的http請(qǐng)求

請(qǐng)求我們使用python的第三方http庫,requests

需要額外安裝,可以使用pip進(jìn)行安裝pipinstallrequests

requests基本使用-example:

help(requests)查看requests的幫助手冊(cè)。

dir(requests)查看requests這個(gè)對(duì)象的所有屬性和方法。

requests.get('http://www.baidu.com&#39

發(fā)起一個(gè)GET請(qǐng)求。

好了,補(bǔ)充基礎(chǔ)知識(shí),我們來發(fā)起一個(gè)請(qǐng)求,并獲得返回包的內(nèi)容。

  1. #-*-coding:utf-8-*- 
  2.  
  3. import requests     #導(dǎo)入requests庫 
  4.  
  5. url='http://www.baidu.com/s?wd=site:qq.com' #設(shè)定url請(qǐng)求 
  6.  
  7. response=requests.get(url).content  #get請(qǐng)求,content是獲得返回包正文 
  8.  
  9. print response 

返回包的內(nèi)容實(shí)在太多,我們需要找到我們想要的子域名,然后復(fù)制出來。

從查看元素我們可以發(fā)現(xiàn),子域名被一段代碼包裹著,如下:

  1. style="text-decoration:none;">chuangshi.qq.com/ </a> 

2.正則表達(dá)式——(.*?) 閃亮登場:

正則 規(guī)則:style=”text-decoration:none;”>(.*?)/

正則表達(dá)式難嗎?難。復(fù)雜嗎?挺復(fù)雜的。

然而最簡單的正則表達(dá)式,我們把想要的數(shù)據(jù)用(.*?)來表示即可。

re 基本使用-example:

假設(shè)我們要從一串字符串'123xxIxx123xxLikexx123xxStudyxx'取出ILike Study,我們可以這么寫:

  1. eg='123xxIxx123xxLikexx123xxStudyxx' 
  2.  
  3. printre.findall('xx(.*?)xx',eg) 
  4.  
  5. #打印結(jié)果 
  6.  
  7. ['I','Like','Study'] 

基于上述例子,依葫蘆畫瓢也可以獲取子域名了。

  1. #-*-coding:utf-8-*- 
  2.  
  3. importrequests#導(dǎo)入requests庫 
  4.  
  5. importre#導(dǎo)入re庫 
  6.  
  7. url='http://www.baidu.com/s?wd=site:qq.com'#設(shè)定url請(qǐng)求 
  8.  
  9. response=requests.get(url).content#get請(qǐng)求,content是獲得返回包正文 
  10.  
  11. #重點(diǎn),重點(diǎn),下面這段代碼~ 
  12.  
  13. subdomain=re.findall('style="text-decoration:none;">(.*?)/',response) 
  14.  
  15. printsubdomain  

結(jié)果:

  1. ['www.qq.com','chuangshi.qq.com','1314.qq.com','lol.qq.com','tgp.qq.com','open.qq.com','https:','ac.qq.com'] 

3.翻頁的處理

上面獲得的子域名,僅僅只是返回結(jié)果的***頁內(nèi)容,如何獲取所有頁面的結(jié)果?

  1. key=qq.com 
  2.  
  3. #為url添加頁碼: 
  4.  
  5. url="http://www.baidu.com.cn/s?wd=site:"+key+"&cl=3&pn=0" 
  6.  
  7. url="http://www.baidu.com.cn/s?wd=site:"+key+"&cl=3&pn=10" 
  8.  
  9. url="http://www.baidu.com.cn/s?wd=site:"+key+"&cl=3&pn=20" 
  10.  
  11. #pn=0為***頁,pn=10為第2頁,pn=20為第3頁… 

天啊,100頁我要寫100個(gè)url嗎?當(dāng)然不是,循環(huán)語句解決你的困擾。

  1. foriinrange(100):#假設(shè)有100頁 
  2.  
  3. i=i*10 
  4.  
  5. url="http://www.baidu.com.cn/s?wd=site:"+key+"&cl=3&pn=%s"%i 

4.重復(fù)項(xiàng)太多?想去重?

基礎(chǔ)知識(shí):

python的數(shù)據(jù)類型:set

set持有一系列的元素,但是set的元素沒有重復(fù)項(xiàng),且是無序的。

創(chuàng)建set的方式是調(diào)用set()并傳入一個(gè)list,list的元素將作為set的元素。

sites=list(set(sites))#用set實(shí)現(xiàn)去重

正則表達(dá)式匹配得到的是一個(gè)列表list,我們調(diào)用set()方法即可實(shí)現(xiàn)去重。

5.完整代碼&&總結(jié)

下面是百度搜索引擎爬取子域名的完整代碼。

  1. #-*-coding:utf-8-*- 
  2.  
  3. importrequests 
  4.  
  5. importre 
  6.  
  7. key="qq.com" 
  8.  
  9. sites=[] 
  10.  
  11. match='style="text-decoration:none;">(.*?)/' 
  12.  
  13. foriinrange(48): 
  14.  
  15. i=i*10 
  16.  
  17. url="http://www.baidu.com.cn/s?wd=site:"+key+"&cl=3&pn=%s"%i 
  18.  
  19. response=requests.get(url).content 
  20.  
  21. subdomains=re.findall(match,response) 
  22.  
  23. sites+=list(subdomains) 
  24.  
  25. site=list(set(sites))#set()實(shí)現(xiàn)去重 
  26.  
  27. printsite 
  28.  
  29. print"Thenumberofsitesis%d"%len(site) 
  30.  
  31. foriinsite: 
  32.  
  33. printi 

結(jié)果截圖:

 

0X02 總結(jié)

 

其實(shí)子域名挖掘就是一個(gè)小小的爬蟲,只不過我們是用百度的引擎來爬取,不過呢,用bing引擎爬去的數(shù)據(jù)量會(huì)比百度更多,所以建議大家使用bing的引擎,代碼的編寫方法和百度的大同小異就不放代碼了,給個(gè)小tip,bing搜索域名用的是domain:qq.com這個(gè)的語法哦。 

責(zé)任編輯:龐桂玉 來源: 36大數(shù)據(jù)
相關(guān)推薦

2024-01-15 14:57:12

2020-04-02 11:11:27

黑客網(wǎng)絡(luò)安全域名采集

2014-08-05 17:09:55

2020-10-26 08:24:09

內(nèi)網(wǎng)信息收集滲透測(cè)試

2020-10-28 07:09:13

內(nèi)網(wǎng)信息收集

2017-05-16 14:48:24

WhatsApp數(shù)據(jù)安全

2014-05-13 14:27:55

2011-05-24 15:02:21

OracleSQL

2021-01-31 23:56:50

Python模塊函數(shù)

2015-08-11 09:10:31

win10隱私保護(hù)

2019-09-15 14:07:49

2014-07-14 14:03:59

跟蹤定位ios信息泄露

2021-10-11 10:39:13

內(nèi)網(wǎng)信息收集

2025-01-08 08:00:00

2025-01-08 07:38:39

setup模塊Ansible網(wǎng)絡(luò)

2017-12-14 21:34:20

2011-04-02 11:20:01

2009-09-04 11:00:29

2010-12-15 14:14:57

2017-10-26 11:07:59

DNS出口本地
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: av三级| 国产精品国产三级国产aⅴ无密码 | 91精品久久 | 日韩a在线 | 日韩精品在线观看一区二区 | 91精品91久久久 | 91av免费观看 | 久久99精品久久久久久国产越南 | 蜜桃毛片| 亚洲精品第一 | 中文字幕精品视频 | 日本中文字幕日韩精品免费 | 婷婷色国产偷v国产偷v小说 | 尤物视频在线免费观看 | 免费成人高清 | 日一区二区| 亚洲在线视频 | 国产中文| 欧美日韩一区在线观看 | 久久精品国产免费一区二区三区 | 久久精品国产a三级三级三级 | 国产福利在线视频 | 久久99精品国产 | 黄色精品 | 中文在线一区二区 | 日韩区| 国产91九色 | 天天天天天操 | 亚洲高清视频在线观看 | 久久成人一区 | 日韩在线一区二区三区 | 久久男人 | 久久大陆 | 欧美久久精品 | 鸳鸯谱在线观看高清 | 成人一级视频在线观看 | 青青久久久 | 国产精品视频网 | 午夜精品一区二区三区在线观看 | 日本视频中文字幕 | 欧美高清dvd |