jjzjj

datanode

全部标签

hadoop - 无法在 HDFS "datanode"中写入数据 - 节点已添加到排除列表中

我在同一个jvm中运行“namenode”和“datanode”,当我尝试写入数据时出现以下异常org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicy$NotEnoughReplicasException:在org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicyDefault.chooseRandom(BlockPlacementPolicyDefault.java:836)在org.apache.hadoop.hdfs.serve

hadoop - hadoop集群中Namenode和Datanode之间的通信端口是什么

我想知道hadoop中Namenode和Datanode使用的具体端口号的通信协议(protocol)。假设,如果我在Namenode中编写以下命令,hdfsdfsadmin-report它将显示实时节点(名称节点和数据节点)的详细信息,有多少数据节点等。我的问题是名称节点和数据节点如何通信?通过哪个端口?我实际上使用上述命令只获得了1个数据节点,而在我的集群中,有8个数据节点。所以,我不确定是否有任何portblockingofnetworking是由这个引起的!!我的防火墙在名称节点和所有数据节点中被禁用。我已经通过返回inactive的sudoufwstatus命令检查了这一点。

java - HDFS Datanode 因 OutOfMemoryError 崩溃

由于OutOfMemoryError,我的Cloudera集群HDFSDatanodes反复崩溃:java.lang.OutOfMemoryError:JavaheapspaceDumpingheapto/tmp/hdfs_hdfs-DATANODE-e26e098f77ad7085a5dbf0d369107220_pid18551.hprof...Heapdumpfilecreated[2487730300bytesin16.574secs]##java.lang.OutOfMemoryError:Javaheapspace#-XX:OnOutOfMemoryError="/usr/

python-3.x - 如果任何 Datanode 驱动器(存储)发生故障,如何在 Hadoop 集群中进行检测

我正在尝试检测Hadoop集群中Datanode的驱动器故障。ClouderaManagerAPI没有任何特定的API。CMAPI仅与名称节点或重启服务相关。这里有什么建议吗?非常感谢! 最佳答案 如果您有权访问NameNodeUI,JMX页面将为您提供此信息。如果您直接点击JMX页面,它将是一个JSON格式的页面,可以轻松解析。我们主要使用HortonWorks,很长时间没有接触Cloudera,但我认为它可以以某种方式提供。 关于python-3.x-如果任何Datanode驱动器(

hadoop - Hadoop copyFromLocal 是否创建 2 个副本? - 1 个在 hdfs 内部,其他在 datanode 内部?

我在安装在windows10上的vmware中的Ubuntu上安装了伪分布式独立hadoop版本。我从网上下载了一个文件,复制到ubuntu本地目录/lab/data我在ubuntu中创建了名为namenodep和datan1的namenode和datanode文件夹(不是hadoop文件夹)。我还在hdfs中创建了一个文件夹作为/input。当我将文件从ubuntu本地复制到hdfs时,为什么该文件存在于以下两个目录中?$hadoopfs-copyFromLocal/lab/data/Civil_List_2014.csv/input$hadoopfs-ls/input/input/

hadoop - Kerberos Auth 后 Datanode 未在 Hadoop 中启动

我已授予/app/hadoop/tmp/dfs/data权限。WARNorg.apache.hadoop.hdfs.server.datanode.DataNode:Invaliddfs.datanode.data.dir/app/hadoop/tmp/dfs/data:EPERM:Operationnotpermittedatorg.apache.hadoop.io.nativeio.NativeIO$POSIX.chmodImpl(NativeMethod)atorg.apache.hadoop.io.nativeio.NativeIO$POSIX.chmod(NativeIO.j

Hadoop datanode 无法与 KDC 通信,但 kinit 可以正常工作

Hadoopdatanode无法与KDC通信,但kinit可以正常工作。sudokinit-k-t/etc/hadoop/conf/hdfs.keytabhdfs/symbio5.us-west-1.compute.internal@US-WEST-1.COMPUTE.INTERNALUDP端口也可以。ncsymbio5.us-west-1.compute.internal-v-z-u88Connectiontosymbio5.us-west-1.compute.internal88port[udp/kerberos]succeeded!但在hadoopkerberos调试输出中,它总

java - 哈多普 : datanode not running?

我通过this为单节点设置配置和部署了hadoop教程。一切都部署得很好,但是当我执行jps以查看Activity进程时,未显示数据节点。我手动尝试通过转到$HADOOP_HOME/bin来启动数据节点:hadoop-datanode,但无济于事。基本上总结一下,hadoop集群根本没有运行datanode进程。另外,我想知道一台机器是否可以安装2个hadoop。我将一个用于mapreduce进程,另一个用于搜索引擎。所以他们的目录不同,可以吗?此外,我一次运行一个hadoop操作。编辑1#:-如果这有帮助,这是我尝试通过$HADOOP_HOME运行数据节点时的日志。root@thin

hadoop - 什么是本地DataNode?

我正在阅读由yahoo在https://developer.yahoo.com/hadoop/tutorial/module2.html制作的hadoop模块这里提到“本地DataNode”我想知道到底什么是本地DataNode。我的猜测是一台既是NameNode又是DataNode的机器,但我想确定它到底是什么。 最佳答案 在Hadoop中,默认情况下,每个数据block被复制3次(复制因子为3)。为确保数据的可用性和持久性,Hadoop将副本放置在3个不同的数据节点中:本地数据节点:客户端发起写入的数据节点(例如使用hadoop

ubuntu - Hadoop:Namenode 不启动。 JPS 仅显示要运行的 DataNode

我正在用两个Ubuntu机器构建一个hadoop集群。我在每台机器上都有一个名为“hduser”的专用Hadoop用户。当我在主服务器上使用“start-dfs.sh”时,会在主服务器和从服务器上创建DataNode。但是NameNode并不是在master上创建的。即使我要求守护进程专门启动NameNode,它也不起作用。hduser@hbase1:~$bash/usr/local/hadoop/sbin/hadoop-daemon.shstartnamenodestartingnamenode,loggingto/usr/local/hadoop/logs/hadoop-hduse