jjzjj

NameNode

全部标签

hadoop - Namenode-HDFS "Connection refused"错误(Hadoop 问题)

当我们看到使用jps命令时,我的所有节点都已启动并正在运行,但我仍然无法连接到hdfs文件系统。每当我在HadoopNamenodelocalhost:8020页面上单击Browsethefilesystem时,我得到的错误是ConnectionRefused。我也尝试过格式化并重新启动名称节点,但错误仍然存​​在。谁能帮我解决这个问题。 最佳答案 检查您的所有服务是否都在运行JobTracker、Jps、NameNode。DataNode、TaskTracker通过运行jps命令。尝试一个一个地运行它们:./bin/stop-al

Hadoop 名称节点格式失败

当我尝试在Hadoop上格式化NameNode时,我收到一条错误消息,指出无法创建目录。Cannotcreatedirectory/usr/local/hadoop_store/hdfs/namenode/currentCannotcreatedirectory/usr/local/hadoop_store/hdfs/namenode/currentjava.io.IOException:Cannotcreatedirectory/usr/local/hadoop_store/hdfs/namenode/currentatorg.apache.hadoop.hdfs.server.co

hadoop - HDFS_NAMENODE_USER、HDFS_DATANODE_USER 和 HDFS_SECONDARYNAMENODE_USER 未定义

我是hadoop新手。我正在尝试以伪分布式模式在我的笔记本电脑中安装hadoop。我使用root用户运行它,但出现以下错误。root@debdutta-Lenovo-G50-80:~#$HADOOP_PREFIX/sbin/start-dfs.shWARNING:HADOOP_PREFIXhasbeenreplacedbyHADOOP_HOME.UsingvalueofHADOOP_PREFIX.Startingnamenodeson[localhost]ERROR:AttemptingtooperateonhdfsnamenodeasrootERROR:butthereisnoHDF

hadoop - 名称节点启动错误

当我尝试在主节点上启动hadoop时,我得到以下输出。并且namenode没有启动。[hduser@dellnode1~]$start-dfs.shstartingnamenode,loggingto/usr/local/hadoop/bin/../logs/hadoop-hduser-namenode-dellnode1.library.outdellnode1.library:datanoderunningasprocess5123.Stopitfirst.dellnode3.library:datanoderunningasprocess4072.Stopitfirst.dell

hadoop - 无法找到或加载主类 org.apache.hadoop.hdfs.server.namenode.Namenode

我知道之前有人问过这个问题,但我想不出解决方案。当我尝试运行hdfsnamenode-format时出现以下错误:Couldnotfindorloadmainclassorg.apache.hadoop.hdfs.server.namenode.NamenodeIfollowedtheinstructionsfromthiswebsitetoinstallonmycentosmachine.唯一的区别是我使用root而不是链接中提到的hadoopuser安装。Bashrc#UserspecificaliasesandfunctionsexportJAVA_HOME=/usr/lib/j

hadoop - 伪模式下没有namenode错误

我是hadoop的新手,正处于学习阶段。根据HadoopDefinitve指南,我已经在伪分布式模式下设置了我的hadoop,并且一切正常。昨天我什至能够执行第3章中的所有示例。今天,当我重新启动我的unix并尝试运行start-dfs.sh然后尝试localhost:50070...它显示错误,当我尝试停止dfs(stop-dfs.sh)时,它说没有要停止的名称节点。我一直在谷歌搜索这个问题,但没有结果。此外,当我再次格式化我的名称节点时......一切都开始正常工作并且我能够连接到localhost:50070甚至在hdfs中复制文件和目录,但是一旦我重新启动我的linux并尝试连

hadoop/hdfs/name 处于不一致状态 : storage directory(hadoop/hdfs/data/) does not exist or is not accessible

我已经尝试了stackoverflow提供的关于这个主题的所有不同解决方案,但没有帮助再次询问具体日志和详细信息感谢任何帮助我的Hadoop集群中有一个主节点和5个从节点。ubuntu用户和ubuntu组是~/Hadoop文件夹的所有者~/hadoop/hdfs/data&~/hadoop/hdfs/name文件夹都存在两个文件夹的权限都设置为755在启动脚本start-all.sh之前成功格式化namenode脚本无法启动“名称节点”这些都在主节点上运行ubuntu@master:~/hadoop/bin$jps7067TaskTracker6914JobTracker7237Jps

hadoop - 命令 "hadoop namenode -format"将做什么

我正在尝试通过遵循教程并尝试在我的机器上执行伪分布式模式来学习Hadoop。我的core-site.xml是:fs.default.namehdfs://localhost:9000Thenameofthedefaultfilesystem.AURIwhoseschemeandauthoritydeterminetheFileSystemimplementation.我的hdfs-site.xml文件是:dfs.replication1Theactualnumberofreplicationscanbespecifiedwhenthefileiscreated.我的mapred-sit

hadoop - Hadoop Namenode 故障转移过程如何工作?

Hadoop权威指南说-EachNamenoderunsalightweightfailovercontrollerprocesswhosejobitistomonitoritsNamenodeforfailures(usingasimpleheartbeatmechanism)andtriggerafailovershouldanamenodefail.为什么名称节点可以运行一些东西来检测自己的故障?谁向谁发送心跳?这个进程在哪里运行?它如何检测名称节点故障?过渡通知给谁? 最佳答案 来自ApachedocsZKFailoverC

hadoop - HDFS 中的大块大小!未使用的空间如何计算?

我们都知道,与传统文件系统中的block大小相比,HDFS中的block大小相当大(64M或128M)。这样做是为了减少寻道时间与传输时间的百分比(传输速率的改进比磁盘寻道时间的改进规模大得多,因此,设计文件系统的目标始终是减少与要传输的数据量相比的查找次数)。但这带来了内部碎片的额外缺点(这就是为什么传统的文件系统block大小不是那么大并且只有几KB的数量级——通常为4K或8K)。我正在浏览这本书-Hadoop,权威指南,发现这写在某处,一个小于HDFSblock大小的文件不占用整个block并且不占整个block的空间但无法理解如何?有人可以对此有所了解吗。