Hadoop Hdfs配置過程全程報道
在學習Hadoop的過程中,你可能會遇到Hadoop Hdfs配置問題,本節就接著上節和大家繼續分享一下Hadoop Hdfs配置方法,相信通過本節的學習你一定會對Hadoop的配置有新的認識。下面是具體步驟接介紹。
1、配置slaves,修改conf/slaves
data-dfs
復制hadoop-2.20.1目錄以及所有文件到DataNode和Client
scp-rp/data/soft/hadoop-2.20.1192.168.1.12:/data/soft
scp-rp/data/soft/hadoop-2.20.1192.168.1.13:/data/soft
2、格式化Hdfs文件系統namenode,進入hadoop目錄
[master@hadoop]$bin/hadoopnamenode-format輸入Y,(注意區分大小寫.這里一定要輸入大寫的Y,否剛不會成功format文件系統)
不出意外,應該會提示格式化成功。如果不成功,就去hadoop/logs/目錄下去查看日志文件。
3、啟動Hdfs分布式文件系統
Hadoop Hdfs配置時還要啟動Hdfs分布式文件系統。進入hadoop目錄,在bin/下面有很多啟動腳本,可以根據自己的需要來啟動。
*start-all.sh啟動所有的Hadoop守護。包括namenode,datanode,jobtracker,tasktrack
*stop-all.sh停止所有的Hadoop
*start-mapred.sh啟動Map/Reduce守護。包括Jobtracker和Tasktrack
*stop-mapred.sh停止Map/Reduce守護
*start-dfs.sh啟動HadoopDFS守護.Namenode和Datanode
*stop-dfs.sh停止DFS守護
啟動所有守護
[master@hadoop]bin/start-all.sh//會自動找到conf/slaves文件里的IP或者機器名,啟動相應的slaves服務端
同樣,如果要停止hadoop,則[master@hadoop]$bin/stop-all.sh
4、HDFS操作
再來看一下Hadoop Hdfs配置過程中對HDFS進行的操作。進入Hadoop目錄,運行bin/目錄的hadoop命令,可以查看Haoop所有支持的操作及其用法,這里以幾個簡單的操作為例。
建立目錄
[master@hadoop]$bin/hadoopdfs-mkdirtestdir
在HDFS中建立一個名為testdir的目錄
復制文件
[master@hadoop]$bin/hadoopdfs-put
/home/dbrg/large.ziptestfile.zip
把本地文件large.zip拷貝到HDFS的根目錄/user/dbrg/下,文件名為testfile.zip
查看現有文件
[master@hadoop]$bin/hadoopdfs-ls
行hadoop程序時,中途我把它終止了,然后再向hdfs加文件或刪除文件時,出現Namenodeisinsafemode錯誤:
rmr:org.apache.hadoop.dfs.SafeModeException:Cannotdelete/user/hadoop/input.Namenodeisinsafemode
解決的命令:
bin/hadoopdfsadmin-safemodeleave#關閉safemode。本就關于Hadoop Hdfs配置方面的內容就介紹到這里
【編輯推薦】
- 輕松實現Hadoop Hdfs配置
- 專家指導 如何進行Hadoop分布式集群配置
- Hadoop集群與Hadoop性能優化
- HadoopHBase實現配置簡單的單機環境
- 深入剖析Hadoop HBase