jjzjj

dataNode

全部标签

hadoop datanode 机架感知设置

我正在构建一个hadoop集群。我有3个机架,每个机架包含几个虚拟机。如何配置hadoop让它有rackawareness?有人建议使用“topology.script.file.name”来设置脚本?你能给我写一个可行的例子吗?例如:rack1:192.168.1.1,192.168.1.2,192.168.1.3rack2:192.168.1.4,192.168.1.5,192.168.1.6rack3:192.168.1.7,192.168.1.8,192.168.1.9非常感谢 最佳答案 只需给它们其他子网,如rack119

Hadoop 安装 - Datanode 正在运行,但未在 JPS 中显示

我已经在2节点集群上安装了CDH3U5。一切似乎都运行良好,例如所有服务、WebUI、MR作业、HDFSshell命令。然而,有趣的是,当我启动datanode服务时,它给了我一条OK消息,表明datanode正在作为进程运行说X。但是当我运行JPS时,我没有看到该进程的标签“Datanode”。所以输出看起来像-17153TaskTracker18908Jps16267进程ID-16267是Datanode进程。所有其他检查点都已通过。所以这看起来很奇怪。同样的事情发生在集群中的另一个节点上。对此行为的任何洞察以及这是否需要修复都会有所帮助。 最佳答案

hadoop - Hadoop DataNode 错误 : host:port authority

伙计们。当我尝试运行hadoop集群时,但我没有成功。主要错误是这样的:但奇怪的是,除了dataNode,NameNode、JobTracker、SecondNameNode和TaskTracker都没问题。我的其他配置是这样的:hdfs-site.xml核心站点.xmlmapred-site.xml 最佳答案 我不确定它是否有帮助,但是checkthispage从那里引用,EventhoughtIconfiguredthecore-site.xml,mapred-site.xml&hdfs-site.xmlunder/usr/lo

Hadoop 2.2 添加新的 Datanode 到现有的 hadoop 安装

我首先在我的机器(称为Abhishek-PC)上安装了hadoop2.2,一切正常。我能够成功运行整个系统。(名称节点和数据节点)。现在我创建了1个VMhdclient1,我想将此VM添加为数据节点。这是我遵循的步骤我成功设置了SSH,我可以在没有密码的情况下通过ssh进入hdclient1,并且我可以在没有密码的情况下从hdclient1登录到我的主机。我在此虚拟机上安装了hadoop2.2,并根据网络上的许多教程修改了配置文件。这是我的配置文件名称节点配置https://drive.google.com/file/d/0B0dV2NMSGYPXdEM1WmRqVG5uYlU/edi

hadoop -/etc/hosts文件如何影响datanode和namenode的连接?

我现在正在建立一个hadoop集群(4台机器包括1台运行namenode和jobTracker的master,3台运行dataNode和TaskTracker的slave)。但遗憾的是所有datanode无法连接到9000端口上的master。当我使用sudonetsat-ntlp,结果是:tcp000.0.0.0:521930.0.0.0:*LISTEN-tcp000.0.0.0:20490.0.0.0:*LISTEN-tcp000.0.0.0:392670.0.0.0:*LISTEN7284/rpc.mountdtcp000.0.0.0:332190.0.0.0:*LISTEN72

hadoop - 如何将DataNode添加到Cloudera hadoop

我正在尝试向我现有的单个数据节点添加一个数据节点。由于我的Unix服务器无法访问Internet,ClouderaManager无法执行安装,因为它会抛出以下错误。是否有其他CLI方法来添加数据节点而不是CM?BEGINyuminfojdkLoadedplugins:product-id,subscription-managerUpdatingRedHatrepositories.http://archive.cloudera.com/cm4/redhat/6/x86_64/cm/4.7.2/repodata/repomd.xml:[Errno14]PYCURLERROR6-"Coul

hadoop - datanode显示死了,如何让它复活

我已将2个数据节点添加到mapred.includeslaves文件中。检查了hadoopdfsadmin-report命令,发现状态如下。可用数据节点:0(总共2个,死2个)如何让他们活过来?请帮帮我。 最佳答案 尝试以下步骤:转到$HADOOP_HOME/bin./hadoop-daemon.sh--config$HADOOP_HOME/conf启动数据节点 关于hadoop-datanode显示死了,如何让它复活,我们在StackOverflow上找到一个类似的问题:

java - 使用Put命令写入HDFS,得到 "Exculding datanode"

当我使用“hadoopfs-putfile1.txt/home”时,出现了这些错误:2014-11-2512:42:27INFO[org.apache.hadoop.conf.Configuration.deprecation]fs.default.nameisdeprecated.Instead,usefs.defaultFS2014-11-2512:45:34INFO[org.apache.hadoop.hdfs.DFSClient]ExceptionincreateBlockOutputStreamjava.net.ConnectException:Connectiontimed

hadoop - Datanode 越来越死 ambari hadoop

我已经使用ambari1.7设置了hadoop集群我遇到了一个奇怪的问题。第一次数据节点启动,但在几分之一秒内自动停止。当我尝试重新启动datanode时,它​​没有启动。请帮我解决这个问题。重启datanode的日志如下2015-01-2617:58:02,233-Errorwhileexecutingcommand'start':Traceback(mostrecentcalllast):File"/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py",line123,inex

Hadoop Datanode 启动失败,没有运行

我正在尝试在VMWare的Ubuntu14.04中安装Hadoop2.7。但是当我做hadoopdatanode时datanode总是无法启动,我得到这个错误: 最佳答案 此问题是由于DatanodeclusterID与NamenodeClusterID不同,两者应该相同,然后只有datanode将与Namenode通信。格式化后尝试停止服务并启动namenode。 关于HadoopDatanode启动失败,没有运行,我们在StackOverflow上找到一个类似的问题: