jjzjj

dataNode

全部标签

hadoop - 当我点击 jps 命令时,namenode datanode 和 sec name node 没有启动

我在Ubuntu中以伪分布式模式使用Hadoop1.2.1,一切正常。但后来我不得不重新启动我的系统。现在,当我在给出start-all.sh后点击jps命令时,我只能看到tasktracker和jobtracker正在运行。谁能告诉我这个问题的可能原因?并指导我解决这个问题?************************************************************/2017-03-1318:41:16,733INFOorg.apache.hadoop.hdfs.server.datanode.DataNode:STARTUP_MSG:/*********

hadoop - 本地主机 : ERROR: Cannot set priority of datanode process 2984

我设置并配置了一个多节点的Hadoop。启动时会出现我的Ubuntu是16.04,Hadoop是3.0.2Startingnamenodeson[master]Startingdatanodeslocalhost:ERROR:Cannotsetpriorityofdatanodeprocess2984Startingsecondarynamenodes[master]master:ERROR:Cannotsetpriorityofsecondarynamenodeprocess31752018-07-1702:19:39,470WARNutil.NativeCodeLoader:Una

java - DataNode 无法连接名称节点 - "org.apache.hadoop.ipc.Client: Retrying connect to server"

我已经部署了一个具有1个名称节点和2个数据节点的Hadoop3.1.2集群。NameNode已UP,secondaryNameNode和ResourceManager也up为MasterNode,但DataNode无法连接NameNode,因此没有显示容量。我一直在尝试找出错误可能是什么,但到目前为止还没有成功。删除了域解析,因为我遇到了奇怪的错误:WARNING:AttemptingtostartallApacheHadoopdaemonsashadoopin10seconds.WARNING:Thisisnotarecommendedproductiondeploymentconf

hadoop - DataNode 无法与 Hadoop 2.2 中的 NameNode 通信

我正在设置一个hadoop2.2集群。我已经成功配置了一个master和一个slave。当我在master上输入start-dfs.sh和start-yarn.sh时,所有守护进程都正确启动。具体来说,master上正在运行以下程序:数据节点节点管理器名称节点资源管理器次要节点在从机上,以下正在运行:数据节点节点管理器当我打开http://master-host:50070时,我看到只有1个“LiveNode”,它指的是master上的数据节点。slave上的数据节点已启动,但无法告诉master它已启动。这是我能找到的唯一错误:从/logs/hadoop-hduser-datanod

hadoop - 如何在Hadoop中设置NameNodes、DataNodes、Mappers和Reducers的数量

我想知道如何设置数量NameNode数据节点映射器reducer在Hadoop的代码/配置中。 最佳答案 Namenode和DataNode数量由您的业务需求决定。您无需通过编程来设置它们。如果您需要可伸缩性,则必须了解HDFS联邦的概念。请参阅此文档page有关联邦的更多详细信息。Inordertoscalethenameservicehorizontally,federationusesmultipleindependentNamenodes/namespaces.TheNamenodesarefederated;theName

hadoop - 启动 start-dfs.sh 时无法启动 datanode 并且 datanode 的文件权限正在更改

我在将本地文件部署到hdfs时遇到问题,发现我应该为数据节点和名称节点设置“drwx------”。hdfs中datanode和namenode的初始权限状态。drwx------3hduserhadoop4096Mar216:45datanodedrwxr-xr-x3hduserhadoop4096Mar217:30namenodedatanode权限改为755hduser@pradeep:~$chmod-R755/usr/local/hadoop_store/hdfs/hduser@pradeep:~$ls-l/usr/local/hadoop_store/hdfs/total8d

Hadoop HDFS 数据文件 : Displaying Datanodes & Blocks

我已经将一个文件放入HDFS,我想确切地知道它是如何分散在DFS中的(哪些数据block在哪些数据节点中)。尝试了fsck,但当我指定我放入DFS中的数据文件的名称时,出现“无效路径”错误。有什么想法吗? 最佳答案 尝试hdfsfsck/path/to/file-files-blocks-locations这将打印出文件每个block的位置。NamenodeWebUI也会提供这些信息。在Utilities-->Browsethefilesystem下,选择要查看block信息的文件。 关

Hadoop : Starting Datanode doesn't seem to respond

我的测试环境我正在尝试在我的测试环境中部署一个基于3个节点的Hadoop集群:1个名称节点(主节点:172.30.10.64)2个数据节点(slave1:172.30.10.72和slave2:172.30.10.62)我将具有主属性的文件配置到我的名称节点中,并将具有从属属性的文件配置到我的数据节点中。硕士文件主持人:127.0.0.1localhost172.30.10.64master172.30.10.62slave2172.30.10.72slave1#ThefollowinglinesaredesirableforIPv6capablehosts::1localhostip

hadoop - HDFS文件系统需要格式化datanode还是只需要格式化namenode

在搭建伪集群或全集群时,是否需要格式化datanode来安装HDFS文件系统,还是只需要格式化namenode。我问这个是因为,我在很多博客上读到过,HDFS在硬盘上按顺序存储数据,它是一个抽象层,将数据存储在大块上,而不是默认block大小存储提供的主机文件系统。如果我们不格式化datanode,HDFS的强大功能就来折腾了。 最佳答案 格式化和挂载硬盘驱动器与格式化HDFS没有直接关系。从概念上讲,“格式化”的想法是相同的。但这两个任务是完全独立的,没有直接关系。hadoopformat命令不会格式化或挂载硬盘。硬盘驱动器应该已

linux - Hadoop:每个namenode和datanode只存在一瞬间

使用CentOs5.4三台虚拟机(使用vmwareworkstation):ma​​ster,slave1,slave2。ma​​ster用于namenode,slave1slave2用于datanode。Hadoop版本是hadoop-0.20.1.tar.gz,我已经配置好所有相关文件,并用root用户关闭防火墙使用命令:/sbin/serviceiptables停止。然后尝试在ma​​ster(namenode)虚拟机中格式化namenode并启动hadoop,命令如下,没有报错。bin/hadoopnamenode-formatbin/start-all.sh然后我现在在ma​