成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

拒絕低效!Python教你爬蟲公眾號文章和鏈接

開發 后端
上一篇文章整理了的公眾號所有文章的導航鏈接,其實如果手動整理起來的話,是一件很費力的事情,因為公眾號里添加文章的時候只能一篇篇的選擇,是個單選框。

[[314719]]

 前言

上一篇文章整理了的公眾號所有文章的導航鏈接,其實如果手動整理起來的話,是一件很費力的事情,因為公眾號里添加文章的時候只能一篇篇的選擇,是個單選框。

 

面對幾百篇的文章,這樣一個個選擇的話,是一件苦差事。

pk哥作為一個 Pythoner,當然不能這么低效,我們用爬蟲把文章的標題和鏈接等信息提取出來。

抓包

我們需要通過抓包提取公眾號文章的請求的 URL,參考之前寫過的一篇抓包的文章 Python爬蟲APP前的準備,pk哥這次直接抓取 PC 端微信的公眾號文章列表信息,更簡單。

我以抓包工具 Charles 為例,勾選容許抓取電腦的請求,一般是默認就勾選的。

 

為了過濾掉其他無關請求,我們在左下方設置下我們要抓取的域名。

 

 

打開 PC 端微信,打開 「Python知識圈」公眾號文章列表后,Charles 就會抓取到大量的請求,找到我們需要的請求,返回的 JSON 信息里包含了文章的標題、摘要、鏈接等信息,都在 comm_msg_info 下面。

 

這些都是請求鏈接后的返回,請求鏈接 url 我們可以在 Overview 中查看。

 

通過抓包獲取了這么多信息后,我們可以寫爬蟲爬取所有文章的信息并保存了。

初始化函數

公眾號歷史文章列表向上滑動,加載更多文章后發現鏈接中變化的只有 offset 這個參數,我們創建一個初始化函數,加入代理 IP,請求頭和信息,請求頭包含了 User-Agent、Cookie、Referer。

 

這些信息都在抓包工具可以看到。

 

請求數據

通過抓包分析出來了請求鏈接,我們就可以用 requests 庫來請求了,用返回碼是否為 200 做一個判斷,200 的話說明返回信息正常,我們再構建一個函數 parse_data() 來解析提取我們需要的返回信息。

 

  1. def request_data(self): 
  2.     try: 
  3.         response = requests.get(self.base_url.format(self.offset), headers=self.headers, proxies=self.proxy) 
  4.         print(self.base_url.format(self.offset)) 
  5.         if 200 == response.status_code: 
  6.            self.parse_data(response.text) 
  7.     except Exception as e: 
  8.         print(e) 
  9.         time.sleep(2) 
  10.         pass 

提取數據

通過分析返回的 Json 數據,我們可以看到,我們需要的數據都在 app_msg_ext_info 下面。

 

我們用 json.loads 解析返回的 Json 信息,把我們需要的列保存在 csv 文件中,有標題、摘要、文章鏈接三列信息,其他信息也可以自己加。

 

  1. def parse_data(self, responseData): 
  2.             all_datas = json.loads(responseData) 
  3.             if 0 == all_datas['ret'and all_datas['msg_count']>0: 
  4.                 summy_datas = all_datas['general_msg_list'
  5.                 datas = json.loads(summy_datas)['list'
  6.                 a = [] 
  7.                 for data in datas: 
  8.                     try: 
  9.                         title = data['app_msg_ext_info']['title'
  10.                         title_child = data['app_msg_ext_info']['digest'
  11.                         article_url = data['app_msg_ext_info']['content_url'
  12.                         info = {} 
  13.                         info['標題'] = title 
  14.                         info['小標題'] = title_child 
  15.                         info['文章鏈接'] = article_url 
  16.                         a.append(info) 
  17.                     except Exception as e: 
  18.                         print(e) 
  19.                         continue 
  20.  
  21.                 print('正在寫入文件'
  22.                 with open('Python公眾號文章合集1.csv''a', newline='', encoding='utf-8'as f: 
  23.                     fieldnames = ['標題''小標題''文章鏈接']  # 控制列的順序 
  24.                     writer = csv.DictWriter(f, fieldnames=fieldnames) 
  25.                     writer.writeheader() 
  26.                     writer.writerows(a) 
  27.                     print("寫入成功"
  28.  
  29.                 print('----------------------------------------'
  30.                 time.sleep(int(format(random.randint(2, 5)))) 
  31.                 self.offset = self.offset+10 
  32.                 self.request_data() 
  33.             else
  34.                 print('抓取數據完畢!'

這樣,爬取的結果就會以 csv 格式保存起來。

運行代碼時,可能會遇到 SSLError 的報錯,最快的解決辦法就是 base_url 前面的 https 去掉 s 再運行。

保存markdown格式的鏈接

經常寫文章的人應該都知道,一般寫文字都會用 Markdown 的格式來寫文章,這樣的話,不管放在哪個平臺,文章的格式都不會變化。

在 Markdown 格式里,用 [文章標題](文章url鏈接) 表示,所以我們保存信息時再加一列信息就行,標題和文章鏈接都獲取了,Markdown 格式的 url 也就簡單了。

 

  1. md_url = '[{}]'.format(title) + '({})'.format(article_url) 

爬取完成后,效果如下。

 

我們把 md鏈接這一列全部粘貼到 Markdown 格式的筆記里就行了,大部分的筆記軟件都知道新建 Markdown 格式的文件的。

 

這樣,這些導航文章鏈接整理起來就是分類的事情了。

責任編輯:華軒 來源: Python知識圈
相關推薦

2021-06-10 18:24:59

反爬蟲驗證碼爬蟲

2017-08-01 17:02:19

代碼Python數據

2015-09-29 11:02:44

微信公眾號運營

2022-12-05 10:47:37

2022-01-15 07:22:45

RSS訂閱互聯網聚合閱讀

2023-11-23 19:36:58

2010-03-15 15:21:40

Python分割器

2013-04-08 15:56:49

2013-04-09 22:41:00

微信公眾平臺公眾賬號

2021-10-22 15:06:38

騰訊微信移動應用

2024-03-28 08:10:37

Java技巧SEO

2014-02-19 11:12:35

2018-05-14 15:27:06

Python網絡爬蟲爬蟲架構

2021-04-14 14:37:13

微信公眾號騰訊

2011-06-10 15:39:47

外鏈

2019-12-27 13:31:33

Talking DatAI人工智能

2020-07-10 08:24:18

Python開發工具

2017-09-05 08:52:37

Git程序員命令

2018-05-14 16:34:08

Python網絡爬蟲Scrapy

2018-05-22 15:30:30

Python網絡爬蟲分布式爬蟲
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 色网在线观看 | 激情综合五月天 | 日韩精品免费在线观看 | 伊人热久久 | 精品中文字幕在线 | 99精品一区二区 | 日韩在线免费视频 | 欧美a级网站| 欧美激情精品久久久久久变态 | 精品日韩一区二区 | 欧美成视频 | 欧美精品一区二区三区四区五区 | 亚洲精品欧美一区二区三区 | 欧美一级二级在线观看 | av在线免费网| 成人在线视频免费观看 | 久久88| 天堂va在线观看 | 国产成人一区在线 | 91网在线播放 | 网页av | 国产999精品久久久 午夜天堂精品久久久久 | 精品久久香蕉国产线看观看亚洲 | 爽爽免费视频 | 欧美日韩精品亚洲 | 亚洲网站在线播放 | 91久久久久久久久久久久久 | 日韩一区二区久久 | 日韩一区二区三区av | 日韩一区在线播放 | 奇米超碰在线 | 欧美一区二区三区国产精品 | av黄色片在线观看 | 麻豆视频在线看 | 亚洲欧美一区二区三区在线 | 男人天堂av网 | 亚洲国产中文字幕 | 久久精品综合 | 国产有码 | 久久一及片 | www.887色视频免费 |