jjzjj

dataNode

全部标签

hadoop - Hadoop/Datanode 目录下当前和以前目录的意义

Hadoop/Datanode目录下当前和以前的目录有什么意义?hadoop如何使用它们?我在本地文件系统的所有磁盘上的路径/hadoop/datanode下有一个/current目录。它包含以下内容:subdirXblk_X.metablk_XSubdirX文件夹包含子目录和子目录以及许多block及其元文件。它们的意义是什么以及它们是如何存储的?hdfs如何决定创建这些子目录?关于这些的任何文档都会有很大帮助。 最佳答案 这就是您要找的http://hortonworks.com/blog/hdfs-metadata-direc

ubuntu - hadoop 启动错误 : datanode, tasktracker won't start and data replication error

我正在尝试在一个由5台机器组成的(测试)集群上安装Hadoop1.2.1,其中一个节点用作JobTracker、NameNode和SecondaryNameNode。其余4台机器都是从机。有两个问题。1)在master的conf/masters和conf/slaves文件中,我分别提供了master和slaves的IP地址。在从机上,masters文件是空的,slaves文件包含自己的IP。当启动hadoop(bin/start-all.sh)时,TaskTracker和DataNode不启动。我将这些机器的主机名放入/etc/hosts文件中,并尝试将它们的主机名也放入masters

hadoop - hadoop2.7.1单机多datanode

我正在研究hadoophdfs2.7.1。我已经设置了一个具有一个数据节点的单节点集群。但是现在我需要在同一台机器上设置三个数据节点。我尝试使用互联网上提供的各种方法,但无法在同一台机器上启动具有三个数据节点的hadoop集群。请帮助我。 最佳答案 您可以使用Docker容器在单台机器上运行多节点集群。最近被Hortonworks收购的公司SequenceIQ的员工甚至准备了可以下载的Docker镜像。看这里:http://blog.sequenceiq.com/blog/2014/06/19/multinode-hadoop-cl

hadoop - datanode中的文件是如何命名的| datanode hadoop中文件的命名约定

请告诉我数据节点中文件的命名方式/或依据是什么?我对一个大于64MB的文件进行了copyFromLocal,发现它创建了两组文件。一个元文件和一部分实际文件。datanode中的文件是如何命名的?hadoop架构用什么算法来命名这个文件?blk_-861882337543881015_1251.metablk_-861882337543881015blk_-1127355763020627217_1252.metablk_-1127355763020627217 最佳答案 通常有两种类型的文件被写入数据节点。其中一个将包含文件名为b

hadoop - Datanodes 处于事件状态,但我无法将文件复制到 HDFS [Hadoop 2.6.0 - Raspberry Pi Cluster]

我一直在使用RaspberryPis开发Hadoop集群,只是出于学习目的。我已经成功配置了所有的奴隶和主人(据我所知)。问题:HDFS无法复制本地文件。并根据http://Master:8088我有3个事件节点。(我在最后附上了截图)但是当我尝试将本地文件复制到HDFS时,出现以下异常:16/01/1206:20:43WARNhdfs.DFSClient:DataStreamerExceptionorg.apache.hadoop.ipc.RemoteException(java.io.IOException):File/LICENCE.txt._COPYING_couldonlyb

hadoop - Datanode之一磁盘卷故障

我的hadoop集群数据节点中的一个磁盘已变为只读。我不确定是什么导致了这个问题。从数据节点中删除该卷会导致数据丢失吗??如果我将面临数据丢失,该如何处理? 最佳答案 如果您的hadoop集群的复制因子大于1(默认情况下,多节点集群为3),则您的数据必须已复制到多个数据节点上。您可以在hdfs-site.xml中检查您的复制因子值(dfs.replication)。所以现在如果你从你的集群中删除这个只读数据节点并且你有一个大于1的复制因子,那么你将不会面临任何数据丢失。因为你的集群在其他datanode上会有对应的replica。为

hadoop - 我们可以在 hdfs 文件系统中指定 DATANODE 的大小吗

在使用以下命令格式化DATANODE时:hdfsdfsdatanode-format是否可以指定HDFS的大小?我了解水平可扩展性会受到影响。 最佳答案 HDFS与附加到它的数据节点一样大...因此,通过添加更多硬件,您可以指定大小。它不像一个可以分区的磁盘(至少,不是一般意义上的为特定任务分配特定大小的磁盘)。 关于hadoop-我们可以在hdfs文件系统中指定DATANODE的大小吗,我们在StackOverflow上找到一个类似的问题: https://

hadoop - 如何在 Hadoop 中的 Datanodes/Slavenodes 之间分发数据?

我在Hadoop中有一个由两台机器组成的多节点集群。第一台机器(配置的主机和从机)运行名称节点和数据节点,第二台机器(配置的从机)运行数据节点。我想在它们之间几乎平均地上传和分发数据?我有两种情况:首先:假设我有一个大小为500MB的文件file1,我使用以下方法上传到第一台机器:hadoopfs-putfile1hdfspath是分到两个数据节点还是只存储在第一台机器?何时分发:是在第一台机器超过block大小之后分发还是有其他标准。是否会为每个datanode平分250mb?第二:假设我有250个文件,每个文件大小为2mb,我将包含它们的文件夹dir1上传到第一台机器,使用:had

hadoop - 在Hadoop中,Namenode如何获取rack的详细信息以及属于某个rack的datanode?

假设在Hadoop集群中我们有2个机架rck1和rck2。每个机架有5个节点。Namenode如何知道节点1属于机架1,节点3属于机架2。 最佳答案 您必须配置系统以指定机架信息的确定方式。例如,thisClouderalink告诉您如何在ClouderaManager中为主机配置机架。或者,thisApachelink解释了如何通过配置文件在java类的外部脚本中指定此信息。拓扑通常采用/myrack/myhost形式,但您可以使用更深的层次结构。他们在python中有以下示例,它假设每个机架有一个/24子网,因此提取IP地址的前

hadoop - 致命数据节点.DataNode : Exception in secureMain

我是Hadoop的新手。遵循手册http://toodey.com/2015/08/10/hadoop-installation-on-windows-without-cygwin-in-10-mints/运行我的hadoop我得到了3个错误:1)致命的datanode.DataNode:secureMain中的异常java.lang.RuntimeException:运行命令获取文件权限时出错:ExitCodeExceptionexitCode=-1073741515:2)FATALnodemanager.NodeManager:启动NodeManager时出错java.lang.U