hadoop 单节点安装成功了之后,心情那是叫一个激动。不过后来不知道为什么系统相当的慢。于是就把系统重启了。但是不妙的是namenode各种无法启动。
原来的配置:
core-site.xml
fs.defaultFS
hdfs://localhost:9000
hdfs-site.xml
dfs.replication
1
网上搜了一圈原来是由于虚拟机的原来hdfs会自动创建自己的namenode和datanode文件夹。默认创建在/tmp目录下,所以导致无法正常启动。于是我在core-site.xml下面追加下面code
在相应的mkdir 命令去穿件 ffs 文件夹
然后运行 bin/hadoop namenode -format
在开始 statt namenode sbin/hadoop-daemon.sh start namenode。发现依然不成功
后来发现真的是错了。应该去该hdfs-site.xml 而不是core-site.xml。
于是赶紧去修改。依次运行。发现依然失败。
最后这个问题真是令我苦恼。后来终于发现bin/hadoop namenode -format 会自动穿件dfs文件夹而不是自己去mkdir。