jjzjj

Datanode

全部标签

hadoop - cdh4.3,日志异常,./start-dfs.sh后,datanode和namenode启动失败

这是来自hadoop-datanode-...log的日志:FATALorg.apache.hadoop.hdfs.server.datanode.DataNode:block池初始化失败block池BP-1421227885-192.168.2.14-1371135284949(存储IDDS-30209445-192.168.2.41-50010-1371109358645)服务于/192.168.2.8:8020org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.protocol.Disallowe

hadoop - Datanode 重新启动 Hadoop fs -put 以获取大量数据(30 GB)

我有一个包含3个节点的hadoop集群。1个主人和2个奴隶。他们每个人都有24GB的内存。当我执行hadoopfs-put将数据从本地文件系统传输到hdfsdome数据被传输然后我得到一个异常12/11/0619:01:39WARNhdfs.DFSClient:DFSOutputStreamResponseProcessorexceptionforblockblk_-2646313249080465541_1002java.net.SocketTimeoutException:603000millistimeoutwhilewaitingforchanneltobereadyforre

ubuntu - Hadoop : NameNode , DataNode 和 SecondaryNameNode 未运行

我正在尝试使用本教程在我的计算机上的单节点集群上安装Hadoop2.2.0http://codesfusion.blogspot.gr/2013/10/setup-hadoop-2x-220-on-ubuntu.html?m=1.我一步一步地按照看到的每条说明进行操作,但每次都遇到同样的问题。NameNode、DataNode和SecondaryNameNode未运行。当我输入start-dfs.sh、start-yarn.sh和jps时,我看到的消息是:hduser@victor-OEM:/usr/local/hadoop/sbin$start-dfs.shIncorrectconf

hadoop - Datanode 没有连接到 Namenode cloudera

我想通过Talend从远程机器访问cloudera以获取大数据。为此,我通过编辑文件/etc/hosts和/etc/sysconfig/network更改了cloudera中主机的ip。我可以从Talend访问cloudera。但是问题是我的数据节点和名称节点似乎没有连接。当我检查我的Datanode的日志详细信息时,出现以下错误:BlockpoolBP-1183376682-127.0.0.1-1433878467265(DatanodeUuidnull)servicetoquickstart.cloudera/127.0.0.1:8022beginninghandshakewith

hadoop - 删除 DataNode 目录时的 HDFS 行为

我设置了一个Hadoop集群(HDP2.6),其中包含3个节点,每个节点上都有以下HDFS安装点。/mnt/datadisk1/mnt/datadisk2/mnt/datadisk3因此,我的/etc/fstab文件在三个节点中的每一个上都如下所示:/dev/mapper/centos-home/homexfsdefaults00...#HeretheHDFSPartitions:/dev/sdb/mnt/datadisk1xfsdefaults00/dev/sdc/mnt/datadisk2xfsdefaults00/dev/sdd/mnt/datadisk3xfsdefaults0

hadoop - Datanode退役与写入

如果我们停用一个数据节点,而该节点上正在对HDFS进行写入,会发生什么情况?它会停止将数据写入该节点上的HDFS并停用该节点,还是完成写入然后停用它。 最佳答案 我在cloudera中找到了解决方案。停用仅适用于HDFSDataNode、MapReduceTaskTracker、YARNNodeManager和HBaseRegionServer角色。如果主机上有其他角色在运行,这些角色将被停止/杀死。http://www.cloudera.com/content/cloudera/en/documentation/core/late

hadoop - Datanode 拒绝与 namenode 通信,因为无法解析主机名

我在kubernetes中运行了一个hadoop集群,有4个日志节点和2个名称节点。有时,我的数据节点无法注册到名称节点。17/06/0807:45:32INFOdatanode.DataNode:BlockpoolBP-541956668-10.100.81.42-1496827795971(DatanodeUuidnull)servicetohadoop-namenode-0.myhadoopcluster/10.100.81.42:8020beginninghandshakewithNN17/06/0807:45:32ERRORdatanode.DataNode:Initiali

hadoop - "dfs.replication"和 "dfs.datanode.data.dir"配置如何在集群中工作?

我已按照Apache“单节点设置”说明在单节点上设置dfs.replication。但是后来我按照“ClusterSetup”进行操作,但它没有提到这个属性,所以我不知道这是要在Namenode上设置的属性,还是也/仅在Datanodes上设置的属性..我还读到在数据节点上的dfs.datanode.data.dir中设置多个(逗号分隔)路径将复制所有路径上的数据。所以我的问题是:dfs.replication将对哪个节点产生影响,如果dfs.datanode.data.dir的多个路径是设置,这些额外的独立复制是否仅针对每个数据节点,或者这些是否也以某种方式与dfs.replicat

hadoop - HDFS集群的某些datanode在reducers运行时突然断开连接

我有8台从属计算机和1台运行Hadoop(ver0.21)的主控计算机当我在10GB数据上运行MapReduce代码时,集群的一些数据节点突然断开连接在所有映射器完成并处理了大约80%的缩减器后,随机将一个或多个数据节点从网络中断开。然后其他数据节点开始从网络中消失,即使我在发现某些数据节点断开连接时终止了MapReduce作业也是如此。我尝试将dfs.datanode.max.xcievers更改为4096,关闭所有计算节点的防火墙,禁用selinux并将文件打开数限制增加到20000但它们根本不起作用......有人有解决这个问题的想法吗?以下是mapreduce的错误日志12/0

hadoop - 从站无法连接到主站并在 hadoop 中启动 tasktracker 或 datanode

我正在使用2节点完全分布式hadoop集群。我正在尝试连接tasktracker以在从属节点上运行,但它无法连接到我的9000/9001端口。下面是配置文件,所以如果有人发现了什么,请大声喊叫!来自Tasktracker的错误消息(在master上使用start-all运行)2012-12-1909:33:03,161INFOorg.apache.hadoop.metrics2.impl.MetricsConfig:loadedpropertiesfromhadoop-metrics2.properties2012-12-1909:33:03,316INFOorg.apache.had