hadoop下datanode節(jié)點(diǎn)需要重啟嗎 Hadoop主節(jié)點(diǎn)datanode沒(méi)有啟動(dòng)?
1.hadoop 在格式化肯定不是!如果運(yùn)行不正確,他必須手動(dòng)恢復(fù)。目前還沒(méi)有自動(dòng)修復(fù)功能。Hadoop偽分布式主進(jìn)程有NameNode、DataNode、SecondaryNameNode、JobT
1.hadoop
在格式化
肯定不是!如果運(yùn)行不正確,他必須手動(dòng)恢復(fù)。目前還沒(méi)有自動(dòng)修復(fù)功能。
Hadoop偽分布式主進(jìn)程有NameNode、DataNode、SecondaryNameNode、JobTracker和
有兩種解決方案:
備選方案1:保留現(xiàn)有數(shù)據(jù)。
將namenode節(jié)點(diǎn)的~/dfs/name/current/VERSION中NameNode的clusterID替換為所有datanode計(jì)算機(jī)的~/dfs/data/current/VERSION中的重組。
執(zhí)行集群關(guān)閉
刪除存儲(chǔ)hdfs塊的文件夾(hadoop/tmp/),然后重建該文件夾。
刪除hadoop下的日志文件logs。
執(zhí)行hadoop namenode -format來(lái)格式化hadoop。
重啟hadoop集群