成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

開發(fā) 后端 數(shù)據(jù)分析
獲取數(shù)據(jù),其實(shí)邏輯并不復(fù)雜:爬取歌單列表里的所有歌單url、進(jìn)入每篇歌單爬取所有歌曲url,去重、進(jìn)入每首歌曲首頁爬取熱評,匯總。

獲取數(shù)據(jù)

其實(shí)邏輯并不復(fù)雜:

  • 爬取歌單列表里的所有歌單url。
  • 進(jìn)入每篇歌單爬取所有歌曲url,去重。
  • 進(jìn)入每首歌曲首頁爬取熱評,匯總。

歌單列表是這樣的:

 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

翻頁并觀察它的url變化,注意下方動(dòng)圖,每次翻頁末尾變化35。 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

采用requests+pyquery來爬?。?/p>

  1. def get_list(): 
  2.  list1 = [] 
  3.  for i in range(0,1295,35): 
  4.  url = 'https://music.163.com/discover/playlist/?order=hot&cat=%E5%8D%8E%E8%AF%AD&limit=35&offset='+str(i) 
  5.  print('已成功采集%i頁歌單\n' %(i/35+1)) 
  6.  data = [] 
  7.  html = restaurant(url) 
  8.  doc = pq(html) 
  9.  for i in range(1,36): # 一頁35個(gè)歌單 
  10.  a = doc('#m-pl-container > li:nth-child(' + str(i) +') > div > a').attr('href'
  11.  a1 = 'https://music.163.com/api' + a.replace('?','/detail?'
  12.  data.append(a1) 
  13.  list1.extend(data) 
  14.  time.sleep(5+random.random()) 
  15.  return list1 

這樣我們就可以獲得38頁每頁35篇歌單,共1300+篇歌單。

下面我們需要進(jìn)入每篇歌單爬取所有歌曲url,并且要注意最后“去重”,不同歌單可能包含同一首歌曲。

點(diǎn)開一篇歌單,注意紅色圈出的id。 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

觀察一下,我們要在每篇歌單下方獲取的信息也就是紅框圈出的這些,利用剛剛爬取到的歌單id和網(wǎng)易云音樂的api可以構(gòu)造出: 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

不方便看的話我們解析一下json。 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手
  1. def get_playlist(url): 
  2.  data = [] 
  3.  doc = get_json(url) 
  4.  obj=json.loads(doc) 
  5.  jobs=obj['result']['tracks'
  6.  for job in jobs: 
  7.  dic = {} 
  8.  dic['name']=jsonpath.jsonpath(job,'$..name')[0] #歌曲名稱 
  9.  dic['id']=jsonpath.jsonpath(job,'$..id')[0] #歌曲ID 
  10.  data.append(dic) 
  11.  return data  

這樣我們就獲取了所有歌單下的歌曲,記得去重。

  1. #去重 
  2. data = data.drop_duplicates(subset=None, keep='first', inplace=True)  

剩下就是獲取每首歌曲的熱評了,與前面獲取歌曲類似,也是根據(jù)api構(gòu)造,很容易就找到了。 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手
  1. def get_comments(url,k): 
  2.  data = [] 
  3.  doc = get_json(url) 
  4.  obj=json.loads(doc) 
  5.  jobs=obj['hotComments'
  6.  for job in jobs: 
  7.  dic = {} 
  8.  dic['content']=jsonpath.jsonpath(job,'$..content')[0]  
  9.  dic['time']= stampToTime(jsonpath.jsonpath(job,'$..time')[0]) 
  10.  dic['userId']=jsonpath.jsonpath(job['user'],'$..userId')[0] #用戶ID 
  11.  dic['nickname']=jsonpath.jsonpath(job['user'],'$..nickname')[0]#用戶名 
  12.  dic['likedCount']=jsonpath.jsonpath(job,'$..likedCount')[0]  
  13.  dic['name']= k 
  14.  data.append(dic) 
  15.  return data  

匯總后就獲得了44萬條音樂熱評數(shù)據(jù)。 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

數(shù)據(jù)分析

清洗填充一下。

  1. def data_cleaning(data): 
  2.  cols = data.columns 
  3.  for col in cols: 
  4.  if data[col].dtype == 'object'
  5.  data[col].fillna('缺失數(shù)據(jù)', inplace = True
  6.  else
  7.  data[col].fillna(0, inplace = True
  8.  return(data) 

按照點(diǎn)贊數(shù)排個(gè)序。

  1. #排序 
  2. df1['likedCount'] = df1['likedCount'].astype('int'
  3. df_2 = df1.sort_values(by="likedCount",ascending=False
  4. df_2.head() 

 Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

再看看哪些熱評是被復(fù)制粘貼搬來搬去的。

  1. #排序 
  2. df_line = df.groupby(['content']).count().reset_index().sort_values(by="name",ascending=False
  3. df_line.head() 

 Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

第一個(gè)和第三個(gè)只是末尾有沒有句號的區(qū)別,可以歸為一類。這樣的話,重復(fù)次數(shù)最多個(gè)這句話竟然重復(fù)了412次,額~~

看看上熱評次數(shù)次數(shù)最多的是哪位大神?從他的身上我們能學(xué)到什么經(jīng)驗(yàn)?

  1. df_user = df.groupby(['userId']).count().reset_index().sort_values(by="name",ascending=False
  2. df_user.head() 

按照 user_id 匯總一下,排序。 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

成功“捕獲”一枚“段子手”,上熱評次數(shù)高達(dá)347,我們再看看這位大神究竟都評論些什么?

  1. df_user_max = df.loc[(df['userId'] == 101***770)] 
  2. df_user_max.head() 

 Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

這位“失眠的陳先生”看來各種情話嫻熟于手啊,下面就以他舉例來看看如何成為網(wǎng)易云音樂評論里的熱評段子手吧。

數(shù)據(jù)可視化

先看看這347條評論的贊數(shù)分布。

  1. #贊數(shù)分布圖 
  2. import matplotlib.pyplot as plt 
  3. data = df_user_max['likedCount'
  4. #data.to_csv("df_user_max.csv", index_label="index_label",encoding='utf-8-sig'
  5. plt.hist(data,100,normed=True,facecolor='g',alpha=0.9) 
  6. plt.show() 

 Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

很明顯,贊數(shù)并不多,大部分都在500贊之內(nèi),幾百贊卻能躋身熱評,這也側(cè)面說明了這些歌曲是比較小眾的,看來是經(jīng)常在新歌區(qū)廣撒網(wǎng)。

我們使用len() 求出每條評論的字符串長度,再畫個(gè)分布圖: 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手

評論的字?jǐn)?shù)集中在18—30字之間,這說明在留言時(shí)要注意字?jǐn)?shù),保險(xiǎn)的做法是不要太長讓人讀不下去,也不要太短以免不夠經(jīng)典。

做個(gè)詞云。 

Python爬蟲44萬條數(shù)據(jù)揭秘:如何成為網(wǎng)易音樂評論區(qū)的網(wǎng)紅段子手 

 

責(zé)任編輯:未麗燕 來源: 今日頭條
相關(guān)推薦

2018-08-27 07:01:33

數(shù)據(jù)分析數(shù)據(jù)可視化租房

2019-07-16 08:51:03

熱搜新浪微博數(shù)據(jù)

2018-07-22 15:57:00

數(shù)據(jù)可視化大數(shù)據(jù)數(shù)據(jù)分析

2011-03-31 11:24:14

數(shù)據(jù)搜索本文字段

2021-11-02 14:46:50

數(shù)據(jù)

2023-10-19 15:13:25

2019-11-28 18:54:50

數(shù)據(jù)庫黑客軟件

2022-06-17 10:15:35

面試API前端

2022-04-28 20:12:44

二分法搜索算法

2024-04-09 07:56:36

MySQL數(shù)據(jù)性能

2017-07-22 22:11:36

數(shù)據(jù)丟失操作

2018-07-09 16:21:17

網(wǎng)易云

2024-05-11 12:34:51

EasyExcelOOM代碼

2022-10-27 21:32:28

數(shù)據(jù)互聯(lián)網(wǎng)數(shù)據(jù)中心

2023-06-12 07:44:21

大數(shù)據(jù)數(shù)據(jù)治理

2013-03-04 10:57:01

網(wǎng)易云音樂

2018-09-13 09:39:03

騰訊運(yùn)維IT

2014-01-21 17:36:58

2025-03-07 11:17:09

2013-05-16 10:15:11

信息泄密彭博Bloomberg
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 日韩二区 | 精品国产免费一区二区三区演员表 | 久久久人成影片免费观看 | 精品国产乱码久久久 | av中文字幕在线观看 | 亚洲乱码一区二区三区在线观看 | 成人av免费在线观看 | av看片| 一区欧美| av一区二区三区四区 | 欧美日韩在线观看视频网站 | 国产一级黄色网 | 精品无码久久久久国产 | 日韩激情视频一区 | 视频在线观看一区二区 | 日韩欧美国产精品 | 国产精品亚洲精品 | 日韩视频在线免费观看 | 另类视频区 | 国产精品久久久久一区二区三区 | 黄色一级大片在线观看 | 天堂av影院| 欧美一区日韩一区 | 久久精品国产清自在天天线 | 亚洲国产一区二区视频 | 一区二区视频 | 人人草天天草 | 成人老司机| 日本精品视频一区二区 | 亚洲精品在线免费观看视频 | 日本精品一区二区三区视频 | 亚洲电影一区 | 国产农村一级国产农村 | 久久久久久影院 | 欧美精产国品一二三区 | 国产精品久久久久久久久久 | 欧美一级小视频 | 欧美激情在线精品一区二区三区 | 丝袜久久 | 日韩中文一区 | 午夜影院在线免费观看视频 |