成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

聊聊Linux 安裝Hadoop和Hbase

系統(tǒng) Linux Hadoop
本文給大家介紹Linux 安裝Hadoop和Hbase的實(shí)踐和運(yùn)用,希望對(duì)你有所幫助。

 環(huán)境介紹

[[353056]]

三臺(tái)CentOS7主機(jī)

  • 192.168.122.101 hdfs1
  • 192.168.122.102 hdfs2
  • 192.168.122.103 hdfs3

其中hdfs1為主節(jié)點(diǎn),其他為從節(jié)點(diǎn)。

安裝配置三臺(tái)都是一樣的,做ssh免密碼驗(yàn)證,如果只要在主節(jié)點(diǎn)hdfs1操作,只做hdfs1到其他節(jié)點(diǎn)信任即可。

如果三臺(tái)都互相信任,這樣子在哪臺(tái)都可以操作是一樣的。

修改內(nèi)核參數(shù)

  1. vim /etc/sysctl.conf 

  1. net.ipv4.tcp_syn_retries = 1 
  2. net.ipv4.tcp_synack_retries = 1 
  3. net.ipv4.tcp_keepalive_time = 600 
  4. net.ipv4.tcp_keepalive_probes = 3 
  5. net.ipv4.tcp_keepalive_intvl =15 
  6. net.ipv4.tcp_retries2 = 5 
  7. net.ipv4.tcp_fin_timeout = 2 
  8. net.ipv4.tcp_max_tw_buckets = 65536 
  9. net.ipv4.tcp_tw_recycle = 1 
  10. net.ipv4.tcp_tw_reuse = 1 
  11. net.ipv4.tcp_max_orphans = 32768 
  12. net.ipv4.tcp_syncookies = 1 
  13. net.ipv4.tcp_max_syn_backlog = 16384 
  14. net.ipv4.tcp_wmem = 8192 131072 16777216 
  15. net.ipv4.tcp_rmem = 32768 131072 16777216 
  16. net.ipv4.tcp_mem = 786432 1048576 1572864 
  17. net.ipv4.ip_local_port_range = 1024 65000 
  18. net.ipv4.ip_conntrack_max = 65536 
  19. net.ipv4.netfilter.ip_conntrack_max=65536 
  20. net.ipv4.netfilter.ip_conntrack_tcp_timeout_established=180 
  21. net.core.somaxconn = 16384 
  22. net.core.netdev_max_backlog = 16384 
  23. vm.max_map_count = 262144 

 修改句柄限制

  1. vim /etc/security/limits.conf 

  1. * soft noproc 655360 
  2. * hard noproc 655360 
  3. * soft nofile 655360 
  4. * hard nofile 655360 

 設(shè)置主機(jī)名解析

在不同的節(jié)點(diǎn),設(shè)置對(duì)應(yīng)的主機(jī)名

  1. hostnamectl set-hostname hdfs1 

 [[353057]]

 添加hosts記錄,也可以使用dns進(jìn)行解析,比較靈活。

  1. vim /etc/hosts 

  1. 192.168.122.101   hdfs1 
  2. 192.168.122.102   hdfs2 
  3. 192.168.122.103   hdfs3 

 創(chuàng)建用戶和目錄

  1. useradd  hadoop  
  2. passwd hadoop 
  3. mkdir -p  /apps/ 
  4. mkdir -pv /data/hdfs/hadoop 
  5. mkdir -pv /data/hdfs/hbase 
  6. chown hadoop.hadoop  /data/hadoop   /data/hbase 

 設(shè)置ssh免密碼 

  1. su - hadoop 
  2.  
  3. ssh-keygen 
  4.  
  5. ssh-copy-id hadoop@hdfs1 
  6.  
  7. ssh-copy-id hadoop@hdfs1 
  8.  
  9. ssh-copy-id hadoop@hdfs1 

 ssh-keygen產(chǎn)生密鑰的時(shí)候一直回車就可以完成創(chuàng)建

ssh-copy-id的時(shí)候需要輸入hadoop的密碼

下載jdk

下載地址:

www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html

需要登陸之后才能下載

  1. tar zxvf jdk-8u271-linux-x64.tar.gz 
  2. mv jdk-8u271-linux-x64 /apps/ 
  3. cd /apps/ 
  4. ln -s jdk1.8.0_271 jdk 
  5. cd -  
  6. if grep '# modify by script' /etc/profile >>/dev/null 2>&1; then 
  7.     echo "alread set JAVA_HOME" 
  8. else 
  9.     cp /etc/profile /etc/profile_bak$(date +%Y%m%d%H%M%S) 
  10.     cat >>/etc/profile <<EOF 
  11. modify by script 
  12. export JAVA_HOME=/apps/jdk 
  13. export PATH=\${JAVA_HOME}/bin:/apps/hadoop/bin:/apps/hbase/bin:\$PATH 
  14. EOF 
  15. fi 

 下載hadoop和hbase

  1. mirrors.aliyun.com/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz 
  2.  
  3. archive.apache.org/dist/hbase/1.3.5/hbase-1.3.5-bin.tar.gz 

  1. tar zxvf hadoop-2.7.7.tar.gz 
  2. tar zxvf hbase-1.3.5-bin.tar.gz 
  3. mv hadoop-2.7.7  hbase-1.3.5   /apps/ 
  4. cd /apps 
  5. ln -s hadoop-2.7.7 hadoop 
  6. ln -s hbase-1.3.5 hbase 
  7. cd -  

 配置hadoop

1.配置namenod

  1. vim /apps/hadoop/etc/hadoop/core-site.xml 

添加內(nèi)容

  1. <configuration> 
  2.  <property> 
  3.     <!-- 指定namenode通信地址 --> 
  4.         <name>fs.defaultFS</name
  5.         <value>hdfs://hdfs1:9000</value> 
  6.     </property> 
  7.     <!-- 指定hadoop運(yùn)行時(shí)產(chǎn)生文件的存儲(chǔ)路徑 --> 
  8.     <property> 
  9.         <name>hadoop.tmp.dir</name
  10.         <value>/data/hdfs/hadoop/tmp</value> 
  11.     </property> 
  12. </configuration> 

 2.配置namenode和datanode

  1. vim /apps/hadoop/etc/hadoop/hdfs-site.xml 

在文件后面添加內(nèi)容

  1. <configuration> 
  2.   <!-- 設(shè)置namenode的http通訊地址 --> 
  3.     <property> 
  4.         <name>dfs.namenode.http-address</name
  5.         <value>hdfs1:50070</value> 
  6.     </property> 
  7. ​ 
  8.     <!-- 設(shè)置secondarynamenode的http通訊地址 --> 
  9.     <property> 
  10.         <name>dfs.namenode.secondary.http-address</name
  11.         <value>hdfs2:50070</value> 
  12.     </property> 
  13. ​ 
  14.     <!-- 設(shè)置namenode存放的路徑 --> 
  15.     <property> 
  16.         <name>dfs.namenode.name.dir</name
  17.         <value>/data/hdfs/hadoop/name</value> 
  18.     </property> 
  19. ​ 
  20.     <!-- 設(shè)置hdfs副本數(shù)量 --> 
  21.     <property> 
  22.         <name>dfs.replication</name
  23.         <value>2</value> 
  24.     </property> 
  25.     <!-- 設(shè)置datanode存放的路徑 --> 
  26.     <property> 
  27.         <name>dfs.datanode.data.dir</name
  28.         <value>/data/hdfs/hadoop/datanode</value> 
  29.     </property> 
  30. ​ 
  31.     <property> 
  32.         <name>dfs.permissions</name
  33.         <value>false</value> 
  34.     </property> 
  35. </configuration> 

 3.配置環(huán)境變量

  1. vim /apps/hadoop/etc/hadoop/hadoo-env.sh 

修改JAVA_HOME

  1. export JAVA_HOME=/apps/jdk 

也可以根據(jù)具體的需求設(shè)置堆棧之類的參數(shù)

4.設(shè)置主節(jié)點(diǎn)

  1. vim /apps/hadoop/etc/hadoop/master 

添加主節(jié)點(diǎn),一般使用主機(jī)名

  1. hdfs1 

5.設(shè)置從節(jié)點(diǎn)

  1. vim /apps/hadoop/etc/hadoop/slave 

添加從節(jié)點(diǎn),一般使用主機(jī)名

  1. hdfs1 
  2.  
  3. hdfs2 
  4.  
  5. hdfs3 

 配置hbase

1.配置環(huán)境變量

  1. vim /apps/hbase/conf/hbase-env.sh 

修改JAVA_HOME變量即可 

  1. export JAVA_HOME=/apps/jdk 

也可以根據(jù)具體的需求設(shè)置堆棧之類的參數(shù)

2.設(shè)置hadoop和zookeeper等信息

  1. vim /apps/hbase/conf/hbase-site.xml 

添加內(nèi)容

  1. <configuration> 
  2. <property> 
  3.         <name>hbase.rootdir</name
  4.     <!-- hbase存放數(shù)據(jù)目錄 --> 
  5.         <value>hdfs://hdfs1:9000/hbase/hbase_db</value> 
  6.         <!-- 端口要和Hadoop的fs.defaultFS端口一致--> 
  7. </property> 
  8. <property> 
  9.         <name>hbase.cluster.distributed</name>  
  10.     <!-- 是否分布式部署 --> 
  11.         <value>true</value> 
  12. </property> 
  13. <property> 
  14.         <name>hbase.zookeeper.quorum</name
  15.         <!-- zookooper 服務(wù)啟動(dòng)的節(jié)點(diǎn),只能為奇數(shù)個(gè) --> 
  16.         <value>hdfs1,hdfs2,hdfs3</value> 
  17. </property> 
  18. <property> 
  19.         <!--zookooper配置、日志等的存儲(chǔ)位置,必須為以存在 --> 
  20.         <name>hbase.zookeeper.property.dataDir</name
  21.         <value>/data/hdfs/hbase/zookeeper</value> 
  22. </property> 
  23. <property> 
  24.         <!--hbase web 端口 --> 
  25.         <name>hbase.master.info.port</name
  26.         <value>16610</value> 
  27. </property> 
  28. </configuration> 
  1. vim /apps/hbase/conf/regionservers 

  1. hdfs1 
  2. hdfs2 
  3. hdfs3 

 啟動(dòng)測試

  1. su - hadoop  
  2. /apps/hadoop/sbin/start-all.sh 
  3. /apps/hbase/bin/start-hbase.sh 

 總結(jié)

這些步驟只是簡單的部署,具體應(yīng)用需要經(jīng)過測試并做出對(duì)應(yīng)的調(diào)整。

 

責(zé)任編輯:姜華 來源: 今日頭條
相關(guān)推薦

2012-11-05 13:33:08

LinuxHBase

2011-08-29 10:15:13

FacebookHadoopHBase

2010-06-03 13:55:38

Hbase和Hadoo

2010-06-03 13:08:51

2021-09-01 07:21:41

LinuxHadoop存儲(chǔ)

2017-01-17 09:38:52

ZooKeeperHadoopHBase

2013-11-22 09:57:03

hadoop1.2.1zookeeper-3hbase-0.94.

2010-06-03 14:08:56

Hadoop創(chuàng)建Hba

2022-03-09 21:55:30

HBase數(shù)據(jù)入倉

2013-03-06 13:27:03

HadoopLinux

2022-10-12 09:01:52

Linux內(nèi)核線程

2021-03-05 11:35:39

Linux 命令工具

2018-06-13 08:53:39

HadoopHBase存儲(chǔ)

2015-08-26 10:18:40

hbase

2013-05-27 14:21:58

2010-06-04 09:29:55

安裝Hadoop教程

2010-06-04 10:01:26

Hadoop安裝

2022-01-05 00:03:32

場景容器Airflow

2020-06-23 08:15:13

計(jì)算存儲(chǔ)分離

2021-11-14 05:00:56

排查Sdk方式
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 欧美11一13sex性hd | 中日韩欧美一级片 | 亚洲国产成人在线视频 | 久99久视频 | 色综合天天天天做夜夜夜夜做 | 美女视频一区 | av黄在线观看 | 精品欧美一区二区三区久久久小说 | 久久久久国产一区二区三区四区 | 成人h片在线观看 | 超碰在线免费av | 欧美一页 | 久久久精品一区二区三区 | 国产69久久精品成人看动漫 | a久久久久久 | 91视频国产精品 | 欧美激情久久久 | 欧美三级在线 | 精品欧美一区二区三区久久久 | 久久手机在线视频 | 成人av资源在线 | 国产免费自拍 | 日本不卡一区二区三区 | 综合视频在线 | 日韩欧美精品在线播放 | 羞羞涩涩在线观看 | 中文字幕日韩三级 | 成人av高清 | 蜜桃特黄a∨片免费观看 | 欧美激情一区二区三区 | 久久久久久久久久久久久9999 | 在线一区 | 久草福利| 欧美日韩成人影院 | 日韩 欧美 二区 | 日韩在线中文字幕 | 天堂资源 | 欧美一区二区三区视频 | 欧美在线激情 | 日韩视频免费看 | 在线视频成人 |