jjzjj

NameNode

全部标签

hadoop - 我应该在集群的所有数据节点上运行 `hdfs namenode -format` 吗?

我正在设置Hadoop集群。据我了解,至少有两名worker的集群的最低设置是4台机器:名称节点资源经理数据节点1数据节点2我对hdfsnamenode-format命令感到困惑,看起来它只用于格式化名称节点,但它的描述(当运行一个空的hdfs命令时)声明“格式化DFS文件系统”。这是否意味着我也应该在所有数据节点上作为安装的一部分运行该命令,还是应该只在名称节点上运行? 最佳答案 您只需格式化一次。它告诉NameNode做一个格式化,这主要是一个元数据操作。您不一定需要在NameNode实际驻留的节点上执行此操作。应该可以从任何地

hadoop - DataNode 无法与 NameNode 通信

设置一个包含3个节点的Hadoop集群。其中一个同时具有NameNode和DataNode角色,而另外两个只是DataNode。我启动了所有节点和服务,但总的来说,它显示只有一个DataNode的状态是事件的。其他节点的状态甚至没有显示。我的问题是开始和上线有什么区别?为什么其他节点根本没有状态?我猜问题是数据节点无法与名称节点通信。所以Azwaw指出,我检查了/etc/hosts文件。是这样的:127.0.0.1nnode.domainnnodelocalhost4localhost4.localdomain4::1localhostlocalhost.localdomainloca

apache - 密码保护端口 50070 上的 Hadoop NameNode Web UI

Hadoop的NameNode在端口50070(http://localhost:50070)上有一个WebUI,它始终可以通过浏览器访问。我想通过.htaccess或httpd.conf通过基本身份验证密码保护整个目录。然而,到目前为止,我所有的努力都是徒劳的。这是我尝试过的示例:DocumentRoot/usr/hdp/2.2.0.0-2041/hadoop-hdfs/webapps/hdfsAuthUserFilepath_to_passwords_fileAuthName"PasswordProtected"AuthTypeBasicRequireuserusername或Op

hadoop - yarn : Do we need nodemanager on namenode?

我们是否需要在名称节点节点上启动节点管理器,即我不会将其设为数据节点?我将在一台机器上启动namenode和resourcemanager。由于我不会在这台机器上启动datanode,我想我也不需要启动nodemanager?感谢 最佳答案 这取决于你。您可以选择在未安装Datanode服务的节点上保留Nodemanager,在这种情况下,如果由该Nodemanager执行,数据将通过网络传输以执行任务。但是如果你想减少主节点的负载,那么你应该避免在它上面安装如此繁重的进程(Datanode和NodeManager)。在许多情况下,

scala - 是否可以在 Namenode 上执行任务?

我将Spark与HDFS和yarn结合使用,所以基本上spark在hadoop上运行。我使用yarn-client模式在集群上运行任务。默认情况下,任务在集群的数据节点上执行。但是,我也希望namenode执行一些任务,因为它一直处于空闲状态。那么,是否也可以让名称节点执行一些任务?如果是,怎么办? 最佳答案 更具体地说,Spark任务不在数据节点上运行。当在Hadoop上运行Spark时,任务在Nodemanagers上执行,Nodemanagers是Hadoop/Yarn集群上每个从属节点上运行的hadoop/yarn集群中的执

hadoop - Namenode在硬盘和内存中存储了哪些信息?

我试图理解Namenode,我引用了在线资料并引用了Hadoop:权威指南一书。我知道Namenode有这样的概念:“编辑日志”、“fsimage”,我可以在我的Namenode中看到以下文件。======================================================================-rw-rw-r--1vevaan24vevaan241048576Nov2322:53edits_0000000000000000001-0000000000000000001-rw-r--r--1rootroot1048576Nov2323:42edit

Hadoop NameNode 和 DataNode 插件

我目前对Hadoop生态系统和HDFS架构有一些初学者的理解。我想了解有关HDFS的以下一些更深层次的方面:有没有一种方法可以连接到NameNode执行以识别正在从HDFS添加/修改/删除的文件-类似于Windows中的文件系统事件?我可以编写插件来通过执行NameNode和DataNode中存在的自定义处理来扩展功能吗?数据节点通常会发回所有已在它们之间复制的block的block报告。有没有办法扩展此数据block报告以添加自定义字段或属性?任何针对上述问题的指示都会很棒。在此先感谢您的帮助 最佳答案 IsthereawayIc

hadoop - 谁来更新 Hadoop 中 Namenode 中的元数据?

在HDFS的情况下,写入如何在名称节点中更新元数据。一旦客户端将数据写入数据节点。数据节点或HDFS客户端将更新名称节点中的元数据。 最佳答案 名称节点中的元数据始终由namenode更新服务。 关于hadoop-谁来更新Hadoop中Namenode中的元数据?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/41851281/

hadoop - NameNode如何识别特定文件复制是设置值,而不是配置的复制3?

hdfs-site.xml:dfs.replication值配置3假设我将特定文件的复制设置为2:./bin/hadoopdfs-setrep-w2/path/to/file.txt当NameNode收到来自DataNode的心跳时,NameNode是否会认为是指定文件path/to/file.txt是否正在根据配置的复制进行复制?如果不是,会怎样? 最佳答案 首先,为了清楚起见,我想尝试重述您的问题,以确保我理解:NameNode是否会将手动设置为低于默认值(dfs.replication)的复制因子的文件视为复制不足?没有。Na

windows - NameNode:无法在 Windows 7 中启动名称节点

我正在尝试在Windows机器上安装Hadoop,中间出现以下错误。日志17/11/2816:31:48ERRORnamenode.NameNode:Failedtostartnamenode.java.lang.UnsatisfiedLinkError:org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Zatorg.apache.hadoop.io.nativeio.NativeIO$Windows.access0(NativeMethod)atorg.apache.hadoop.io