jjzjj

datanodes

全部标签

hadoop - 启动 start-dfs.sh 时无法启动 datanode 并且 datanode 的文件权限正在更改

我在将本地文件部署到hdfs时遇到问题,发现我应该为数据节点和名称节点设置“drwx------”。hdfs中datanode和namenode的初始权限状态。drwx------3hduserhadoop4096Mar216:45datanodedrwxr-xr-x3hduserhadoop4096Mar217:30namenodedatanode权限改为755hduser@pradeep:~$chmod-R755/usr/local/hadoop_store/hdfs/hduser@pradeep:~$ls-l/usr/local/hadoop_store/hdfs/total8d

Hadoop HDFS 数据文件 : Displaying Datanodes & Blocks

我已经将一个文件放入HDFS,我想确切地知道它是如何分散在DFS中的(哪些数据block在哪些数据节点中)。尝试了fsck,但当我指定我放入DFS中的数据文件的名称时,出现“无效路径”错误。有什么想法吗? 最佳答案 尝试hdfsfsck/path/to/file-files-blocks-locations这将打印出文件每个block的位置。NamenodeWebUI也会提供这些信息。在Utilities-->Browsethefilesystem下,选择要查看block信息的文件。 关

Hadoop : Starting Datanode doesn't seem to respond

我的测试环境我正在尝试在我的测试环境中部署一个基于3个节点的Hadoop集群:1个名称节点(主节点:172.30.10.64)2个数据节点(slave1:172.30.10.72和slave2:172.30.10.62)我将具有主属性的文件配置到我的名称节点中,并将具有从属属性的文件配置到我的数据节点中。硕士文件主持人:127.0.0.1localhost172.30.10.64master172.30.10.62slave2172.30.10.72slave1#ThefollowinglinesaredesirableforIPv6capablehosts::1localhostip

hadoop - HDFS文件系统需要格式化datanode还是只需要格式化namenode

在搭建伪集群或全集群时,是否需要格式化datanode来安装HDFS文件系统,还是只需要格式化namenode。我问这个是因为,我在很多博客上读到过,HDFS在硬盘上按顺序存储数据,它是一个抽象层,将数据存储在大块上,而不是默认block大小存储提供的主机文件系统。如果我们不格式化datanode,HDFS的强大功能就来折腾了。 最佳答案 格式化和挂载硬盘驱动器与格式化HDFS没有直接关系。从概念上讲,“格式化”的想法是相同的。但这两个任务是完全独立的,没有直接关系。hadoopformat命令不会格式化或挂载硬盘。硬盘驱动器应该已

linux - Hadoop:每个namenode和datanode只存在一瞬间

使用CentOs5.4三台虚拟机(使用vmwareworkstation):ma​​ster,slave1,slave2。ma​​ster用于namenode,slave1slave2用于datanode。Hadoop版本是hadoop-0.20.1.tar.gz,我已经配置好所有相关文件,并用root用户关闭防火墙使用命令:/sbin/serviceiptables停止。然后尝试在ma​​ster(namenode)虚拟机中格式化namenode并启动hadoop,命令如下,没有报错。bin/hadoopnamenode-formatbin/start-all.sh然后我现在在ma​

ubuntu - Datanode 进程未在 Ubuntu 14.04 的 Hadoop 2.5.2 中运行

我已经使用本指南在Ubuntu14.04上安装了Hadoop2.5.2单节点http://www.vasanthivuppuluri.com/hadoop/installing-hadoop-2-5-1-on-64-bit-ubuntu-14-01/当我输入start-all.sh然后jps输出不显示数据节点进程。hduser@jerrygoyal-Lenovo-B490:~$jps18043NodeManager18327Jps17913ResourceManager17763SecondaryNameNode17018NameNode我也试过Datanodeprocessnotru

hadoop - DataNode 无法与 NameNode 通信

设置一个包含3个节点的Hadoop集群。其中一个同时具有NameNode和DataNode角色,而另外两个只是DataNode。我启动了所有节点和服务,但总的来说,它显示只有一个DataNode的状态是事件的。其他节点的状态甚至没有显示。我的问题是开始和上线有什么区别?为什么其他节点根本没有状态?我猜问题是数据节点无法与名称节点通信。所以Azwaw指出,我检查了/etc/hosts文件。是这样的:127.0.0.1nnode.domainnnodelocalhost4localhost4.localdomain4::1localhostlocalhost.localdomainloca

Hadoop datanode绑定(bind)了错误的IP地址

我有一个正在运行的三节点hadoop集群。出于某种原因,当数据节点从站启动时,它们会识别出一个IP地址,而这个IP地址甚至不存在于我的网络中。这是我的主机名和IP映射。nodes:-hostname:hadoop-masterip:192.168.51.4-hostname:hadoop-data1ip:192.168.52.4-hostname:hadoop-data2ip:192.168.52.6正如您在下面看到的,hadoop-master节点正常启动,但在其他两个节点中,只有一个显示为Livedatanode,无论哪个显示的始终具有IP192.168.51.1,这与您一样可以看

hadoop - 为什么HDFS中的 block 大小在所有DataNode中都一致?

继续提问:datablocksizeinHDFS,why64MB?我知道在分发中的所有数据节点中,HDFS中的块大小为一致/相同(大小取决于配置)。我的问题是:为什么此块大小在所有NameNode中保持一致?我问这个问题是因为,我有10个高端处理机作为DataNode,还有20个低端硬件。如果我们在这10台计算机的HDFS中保留更高块的块,它可以更快地处理吗?另外,NameNode具有元数据以标识DataNode中的块,因此机器之间块大小不一致的问题是什么? 最佳答案 letsayIhave10higherendprocessing

hadoop - 错误 org.apache.hadoop.hdfs.server.datanode.DataNode : RECEIVED SIGNAL 15: SIGTERM

在我的主节点中运行Hive查询时,我遇到了一些严重的问题。我有3个集群设置(1个名称节点,2个数据节点)。版本:Hadoop:2.7.3hive:2.1.0Java:openjdk版本“1.8.0_111”操作系统:ubuntu16.04.1环境:亚马逊EC2我已经在主节点中安装了Hive,并使用start-dfs.sh和start-yarn.sh从主节点启动了所有守护进程。我检查了主节点和从节点中的所有守护进程,都运行良好。当我连接到Hive并运行示例查询时,主节点中的所有守护进程都停止运行,但数据节点中的守护进程仍在运行。请从hadoop-hduser-datanode-namen