jjzjj

Datanode

全部标签

hadoop - Datanode启动但不启动namenode

经过一番努力,我最终设法在伪分布式节点中使用hadoop,namenode和jobtracker完美运行(在http://localhost:50070和http://localhost:50030)昨天我尝试重启我的namenode、datanode等:$hadoopnamenode-format$start-all.shjps给我以下输出:17148DataNode17295SecondaryNameNode17419JobTracker17669JpsNamenode似乎不再愿意启动了......Jobtracker几秒钟后就死了。标记我没有重新启动计算机并且我已经尝试了以下线程

hadoop - Namenode如何决定在哪个datanode中写入一个 block

我只是想知道这个。假设我正在将一个80GB的文件复制到HDFS,并且我的block大小是64MB。现在在收集了一个block的数据后,名称节点将block写入数据节点。这是我的问题:名称节点以何种方式选择应将block写入哪个数据节点。是随机选择还是循环选择? 最佳答案 NameNode会根据负载分配因子选择datanode上的block。它将以平衡所有正在运行的数据节点上的负载的方式选择block。此外,NameNode不会收集一个block的数据并将其写入数据节点。当向NameNode发送写请求时,它会分配要写入各个数据节点的b

hadoop - 节点管理器是否在每个 DataNode 内部执行 Map 和 Reduce 阶段?

我了解资源管理器将MapReduce程序发送到每个节点管理器,以便MapReduce在每个节点中执行。但是在看到这张图片之后,我对实际Map&Reduce作业的执行位置以及数据节点之间的洗牌如何发生感到困惑?难道不是花时间对不同数据节点的数据进行排序和混洗/发送数据来执行ReduceJob吗?请解释一下。另外请告诉我什么是图中的MapNode和ReduceNode。图片来源:http://gppd-wiki.inf.ufrgs.br/index.php/MapReduce 最佳答案 inputsplit是存储在hdfs上的文件的逻辑

hadoop - 如果 RegionServer 崩溃并且数据尚未写入 DataNode 会怎样?

如果RegionServer崩溃了,数据还没有写入DataNode会怎样?我会丢失数据吗?如果一些RegionServers挂了,会影响数据的一致性吗? 最佳答案 如果在写入数据时启用了预写日志(您可以禁用它以进行快速插入),则不会丢失数据。当客户端发出Put请求时,HBase将数据写入预写日志。WAL用于在服务器崩溃时恢复尚未持久化的数据。所有写入和读取都是到/从主节点。HDFS复制WAL和HFileblock。HFileblock复制自动发生。HBase依靠HDFS在存储文件时提供数据安全。数据写入HDFS时,先在本地写入一份,

ubuntu - Hadoop namenode 找不到datanode

环境:2台Ubuntu14.04VM在VMware工作站下运行。我已经成功地设置了一个单节点集群,现在我正在尝试设置一个完全分布式的集群,其中一个名称节点在主节点上运行,一个数据节点在从节点上运行。运行start-dfs.sh和start-yarn.sh后,我可以在主从机器上看到所有需要的进程。(主节点和数据节点上的namenode、resourcemanager、secondarynamenode,从节点上的nodemanager。但是我在master:50070(namenodewebapp)上找不到我的数据节点。telnetmaster9000来自slave的回复成功连接。这一整

hadoop namenode、datanode、secondarynamenode 没有启动

我刚刚下载了hadoop-0.20tar并解压了。我设置了JAVA_HOME和HADOOP_HOME。我修改了core-site.xml、hdfs-site.xml和mapred-site.xml。我开始服务了。jpsjpsJobTrackerTaskTracker我检查日志。它说2015-02-1118:07:52,278INFOorg.apache.hadoop.hdfs.server.namenode.NameNode:STARTUP_MSG:/************************************************************STARTUP_

hadoop - 为什么 Hadoop 使用 namenode 和 datanode?

我们知道,用于大数据处理的服务器应该能够容忍硬件故障。我的意思是,如果我们有3个服务器(A、B、C),突然B服务器宕机,A和C可以取代它的位置。但是在hadoop中,我们知道hadoop使用的是namenode和datanode,也就是当namenode宕机的时候,我们就不能再处理数据了,听起来缺乏对硬件故障的容忍度。hadoop的这种设计架构有什么原因吗? 最佳答案 您提到的问题称为单点故障,它存在于较早的hadoop版本中。尝试更新版本的hadoop,例如2.x.x。2.0.0版的Hadoop通过分配两个名称节点,即active

hadoop - 不允许Datanode连接到Hadoop 2.3.0集群中的Namenode

我正在尝试建立一个ApacheHadoop2.3.0集群,我有一个主节点和三个从节点,从节点列在$HADOOP_HOME/etc/hadoop/slaves文件中,我可以从从节点远程登录到端口9000上的主名称节点,但是当我在任何从节点上启动数据节点时,我得到以下异常。2014-08-0308:04:27,952FATALorg.apache.hadoop.hdfs.server.datanode.DataNode:InitializationfailedforblockpoolBlockpoolBP-1086620743-xx.xy.23.162-1407064313305(Data

java - nodemanager连接到resourcemanager,但datanode没有连接到namenode

我在CentOS7.0上安装了hadoop2.5.1。(1)当我在hadoop上运行应用程序时,我怀疑下面的消息路径“/tmp/hadoop-yarn/staging/hadoop/.staging/job_1424775783787_0001/files”是由于兼容性导致的。如果是兼容性问题,我该如何修补??15/02/2420:27:41ERRORstreaming.StreamJob:ErrorLaunchingjob:File/tmp/hadoop-yarn/staging/hadoop/.staging/job_1424775783787_0001/files/Formatt

java - 未入门Hortonworks沙盒中的Datanode进程手动设置

我是Hortonworks沙箱的新手。我正在尝试通过此链接在我的系统(ubuntu-14.04)上手动设置它。http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.2.4/HDP_Man_Install_v224/index.html#validating_core_hadoop.在运行下面的命令以运行Datanode之后。/usr/hdp/current/hadoop-hdfs-datanode/../hadoop/sbin/hadoop-daemon.sh--config$HADOOP_CONF_DIRstartdatanodeDa