成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

海量數(shù)據(jù)的二度人脈挖掘算法(Hadoop 實現(xiàn))

大數(shù)據(jù) 算法 Hadoop
最近做了一個項目,要求找出二度人脈的一些關(guān)系,就好似新浪微博的“你可能感興趣的人” 中,間接關(guān)注推薦;簡單描述:即你關(guān)注的人中有N個人同時都關(guān)注了 XXX 。

最近做了一個項目,要求找出二度人脈的一些關(guān)系,就好似新浪微博的“你可能感興趣的人” 中,間接關(guān)注推薦;簡單描述:即你關(guān)注的人中有N個人同時都關(guān)注了 XXX 。

 

在程序的實現(xiàn)上,其實我們要找的是:若 User1 follow了10個人 {User3,User4,User5,... ,User12}記為集合UF1,那么 UF1中的這些人,他們也有follow的集合,分別是記為: UF3(User3 follow的人),UF4,UF5,...,UF12;而在這些集合肯定會有交集,而由最多集合求交產(chǎn)生的交集,就是我們要找的:感興趣的人。

 

我在網(wǎng)上找了些,關(guān)于二度人脈算法的實現(xiàn),大部分無非是通過廣度搜索算法來查找,猶豫深度已經(jīng)明確了2以內(nèi);這個算法其實很簡單,***步找到你關(guān)注的人;第二步找到這些人關(guān)注的人,***找出第二步結(jié)果中出現(xiàn)頻率***的一個或多個人,即完成。

 

但如果有***別的用戶,那在運(yùn)算時,就肯定會把這些用戶的follow 關(guān)系放到內(nèi)存中,計算的時候依次查找;先說明下我沒有明確的診斷對比,這樣做的效果一定沒 基于hadoop實現(xiàn)的好;只是自己,想用hadoop實現(xiàn)下,最近也在學(xué);若有不足的地方還請指點。

首先,我的初始數(shù)據(jù)是文件,每一行為一個follow 關(guān)系 ida+‘\t’+idb;表示 ida follow idb。其次,用了2個Map/Reduce任務(wù)。

Map/Reduce 1:找出 任意一個用戶 的 follow 集合與 被 follow 的集合。如圖所示:

代碼如下:

Map任務(wù): 輸出時 key :間接者 A 的ID ,value:follow 的人的ID 或 被follow的人的ID

  1. public void map(Text key, IntWritable values, Context context) throws IOException,InterruptedException{  
  2.         int value = values.get();  
  3.         //切分出兩個用戶id  
  4.         String[] _key = Separator.CONNECTORS_Pattern.split(key.toString());  
  5.         if(_key.length ==2){  
  6.             //"f"前綴表示 follow;"b" 前綴表示 被follow  
  7.             context.write(new Text(_key[0]), new Text("f"+_key[1]));  
  8.             context.write(new Text(_key[1]), new Text("b"+_key[0]));  
  9.               
  10.               
  11.         }  
  12.     } 

Reduce任務(wù): 輸出時 key :間接者 A 的ID , value為 兩個String,***個而follow的所有人(用分割符分割),第二個為 被follow的人(同樣分割)

  1. &nbsp;&nbsp;&nbsp;&nbsp;protected void reduce(Text key, Iterable<TextPair> pairs, Context context)  
  2.      throws IOException,InterruptedException{  
  3.         StringBuilder first_follow = new StringBuilder();  
  4.         StringBuilder second_befollow = new StringBuilder();  
  5.           
  6.         for(TextPair pair: pairs){  
  7.             String id = pair.getFirst().toString();  
  8.             String value = pair.getSecond().toString();  
  9.             if(id.startsWith("f")){  
  10.                 first_follow.append(id.substring(1)).append(Separator.TABLE_String);  
  11.             } else if(id.startsWith("b")){  
  12.                 second_befollow.append(id.substring(1)).append(Separator.TABLE_String);  
  13.             }  
  14.         }  
  15.           
  16.         context.write(key, new TextPair(first_follow.toString(),second_befollow.toString()));  
  17. &nbsp;&nbsp;&nbsp;&nbsp;} 

其中Separator.TABLE_String為自定義的分隔符;TextPair為自定義的 Writable 類,讓一個key可以對應(yīng)兩個value,且這兩個value可區(qū)分。

 

 

 

Map/Reduce 2:在上一步關(guān)系中,若B follow A,而 A follow T ,則可以得出 T 為 B 的二度人脈,且 間接者為A ,于是找出 相同二度人脈的不同間接人。如圖所示:

代碼如下:

Map 任務(wù):輸出時 key 為 由兩個String 記錄的ID表示的 二度人脈關(guān)系,value 為 這個二度關(guān)系產(chǎn)生的間接人的ID

  1. public void map(Text key, TextPair values, Context context) throws IOException,InterruptedException{  
  2.         Map<String, String> first_follow = new HashMap<String, String>();  
  3.         Map<String, String> second_befollow = new HashMap<String, String>();  
  4.         String _key = key.toString();  
  5.         String[] follow = values.getFirst().toString().split(Separator.TABLE_String);  
  6.           
  7.         String[] second = values.getSecond().toString().split(Separator.TABLE_String);  
  8.           
  9.         for(String sf : follow){  
  10.               
  11.             first_follow.put(sf , _key );  
  12.               
  13.         }  
  14.           
  15.         for(String ss : second){  
  16.               
  17.             second_befollow.put(ss , _key );  
  18.               
  19.         }  
  20.           
  21.         for(Entry<String, String> f : first_follow.entrySet()){  
  22.             for(Entry<String, String> b : second_befollow.entrySet()){  
  23.                 context.write(new TextPair(f.getKey() ,b.getKey()), new Text(key));  
  24.             }  
  25.         }  
  26. &nbsp;&nbsp;&nbsp;&nbsp;} 

Reduce任務(wù):輸出時 key 仍然為二度人脈關(guān)系, value 為所有間接人 的ID以逗號分割。

  1. protected void reduce(TextPair key, Iterable<Text> values, Context context)  
  2.     throws IOException, InterruptedException {  
  3.       
  4.     StringBuilder resutl = new StringBuilder();  
  5.     for (Text text : values){  
  6.         resutl.append(text.toString()).append(",");  
  7.     }  
  8.       
  9.     context.write(key, new Text(resutl.toString()));  

到這步,二度人脈關(guān)系基本已經(jīng)挖掘出來,后續(xù)的處理就很簡單了,當(dāng)然也基于二度人脈挖掘三度,四度:)

原文鏈接:http://my.oschina.net/BreathL/blog/75112

責(zé)任編輯:林師授 來源: OSCHINA
相關(guān)推薦

2013-01-05 02:37:30

HadoopHadoop實例

2010-03-02 09:24:52

2012-07-17 10:05:23

亞馬遜數(shù)據(jù)中心

2012-08-16 11:30:24

2021-04-15 19:48:38

0day漏洞Chrome

2023-08-25 13:32:05

COBOLJavaAI

2016-04-11 14:35:59

機(jī)器學(xué)習(xí)數(shù)據(jù)挖掘數(shù)據(jù)模型

2014-11-04 09:18:33

安全策略安全管理威脅情報

2022-01-25 14:21:05

億咖通智能座艙吉利

2021-12-02 06:19:23

推特CEOCTO

2012-08-06 11:30:01

CreCloud云網(wǎng)管美信科技

2012-03-13 15:16:09

第二屆中國數(shù)碼影像產(chǎn)業(yè)

2017-11-16 19:26:34

海量數(shù)據(jù)算法計算機(jī)

2014-03-10 18:16:48

曙光大數(shù)據(jù)應(yīng)用

2012-07-06 16:19:23

華為服務(wù)器

2014-03-18 10:16:58

SVM

2010-07-12 17:25:32

SQL Server海

2015-03-11 17:53:36

點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 成人毛片视频免费 | 91一区二区 | 99爱在线免费观看 | 在线一级片 | aaa在线观看 | 久久久久亚洲 | 精品国产91| 精品日韩一区二区 | 国产精品一区在线 | 日韩国产在线 | 99pao成人国产永久免费视频 | 国产日韩欧美一区 | 久久麻豆精品 | 夜夜骚| 国产高清不卡 | 99福利视频 | 亚洲三区在线观看 | 亚洲视频三 | 日韩国产一区二区三区 | 亚洲午夜小视频 | 亚洲欧洲精品在线 | xxxxx免费视频 | 久久亚洲二区 | 日本污视频 | 青青久草| 在线中文字幕亚洲 | 天天插天天狠天天透 | 久久久久国产精品 | 国产精品国产馆在线真实露脸 | 特级丰满少妇一级aaaa爱毛片 | 精品国产欧美在线 | 99这里只有精品 | 色在线免费视频 | 91视频进入| 国产做a爱片久久毛片 | 中文字幕精 | 欧美日韩国产精品一区二区 | 久久免费视频在线 | 久草成人 | www国产精品 | 精品视频在线观看 |