jjzjj

Datanode

全部标签

hadoop - 安全 Hadoop - Datanode 无法连接到 namenode

我正在使用hadoop-2.6.0并在Windows平台上创建了具有kerberos安全性的HA启用集群。如果权限设置为false,一切正常。但是当我启用以下属性时,hdfs-site.xmldfs.permissionstrueDatanode无法连接到namenode。我收到以下异常异常2015-05-2110:44:42,461WARNorg.apache.hadoop.hdfs.server.datanode.DataNode:Problemconnectingtoserver:kumar/192.168.3.4:90002015-05-2110:44:46,079WARNor

hadoop - datanode在hdfs下没有 "namenode"目录

所以我有一个小型Hadoop集群,其中有1个主服务器和5个工作服务器。我的masters和workers的hdfs-site.xml看起来像这样:dfs.replication3dfs.namenode.name.dirfile:/home/username/hadoop/yarn/hdfs/namenodedfs.datanode.data.dirfile:/home/username/hadoop/yarn/hdfs/datanode我的集群运行平稳,所有守护进程运行良好。我能够访问HDFS以导入、导出数据、运行字数统计作业等......但是在我的工作人员中,“/home/user

hadoop - 霍顿工厂 : start datanode failed

我已经使用ambari2.2安装了一个新的集群HDP2.3。问题是namenode服务无法启动,每次尝试时,我都会收到followwing错误。当我试图找到问题时,我发现了另一个更明确的错误(使用了端口50070,我认为名称节点使用了这个端口)。任何人以前解决过这个问题吗?谢谢resource_management.core.exceptions.Fail:Executionof'ambari-sudo.shsuhdfs-l-s/bin/bash-c'ulimit-cunlimited;/usr/hdp/current/hadoop-client/sbin/hadoop-daemon.

hadoop - 在 Hadoop 2.7.2(CentOS 7) Cluster 中,Datanode 启动但没有连接到 namenode

我安装了一个三节点hadoop集群。master和slave节点单独启动,但datanode没有显示在namenodewebUI中。datanode的日志文件显示以下错误:2016-06-1821:23:53,980INFOorg.apache.hadoop.ipc.Client:Retryingconnecttoserver:namenode/192.168.1.100:9000.Alreadytried0time(s);retrypolicyisRetryUpToMaximumCountWithFixedSleep(maxRetries=10,sleepTime=1000MILLI

Hadoop集群启动后命令JPS没有DataNode或者NameNode

问题原因1)需要检查core-site.xml和hdfs-site.xml这俩文件,配置没错的话再看第二条2)可能已经执行格式化NameNode后,但是格式之前并没有停止之前的进程并删除相关数据。解决方案(记得你的集群删除前需要停止,每个副本都要进行一次下面操作)1)删除dfs文件夹里的文件和删除nm-local-dir目录    a:删除掉nm-local-dir目录cd/opt/module/hadoop-3.1.3/datarm-rfnm-local-dir    b:进入/opt/module/hadoop-3.1.3/data/dfs目录里面删除掉所有文件cd/opt/module/

Hadoop双节点集群环境,NameNode的web UI显示活节点数为1,死节点数为0

我为Hadoop正确配置了两节点集群环境,Master也为datanode配置好了。所以目前我有两个数据节点,我可以毫无问题地启动Master中的所有服务。从数据节点也能够停止从主节点启动。但是当我使用urlhttp://:50070/dfshealth.jsp检查健康状况时事件节点数始终只显示一个而不是两个。主流程:~/hadoop-1.2.0$jps9112TaskTracker8805SecondaryNameNode9182Jps8579DataNode8887JobTracker8358NameNode从属进程:~/hadoop-1.2.0$jps18130DataNode1

单台机器上的 Hadoop 多个数据节点

我有兴趣在一台Linux机器上配置多个数据节点(比如2个)。我做了一些研究并遵循了教程,但没有奏效。如果有人可以提供工作教程或告诉我如何去做。谢谢 最佳答案 您可以在同一节点本身中运行多个数据节点实例,而不是创建单独的VM。唯一的问题是您必须为每个数据节点实例维护不同的配置。需要为每个datanode守护进程指定不同的端口覆盖hdfs-site.xml中的以下参数:dfs.datanode.address0.0.0.0:50010Thedatanodeserveraddressandportfordatatransfer.dfs.d

hadoop - 在 hadoop 多节点集群上启动 HDFS 守护进程时出错。Datanode 未启动

我正在尝试设置hadoop集群并在连接数据节点时出现以下错误。Namenode已启动并运行良好,但数据节点正在产生问题。/etc/hosts文件在两个节点上都可用。IP表已停止(f/w)。ssh发生。2015-05-2020:54:05,008INFOorg.apache.hadoop.ipc.Client:Retryingconnecttoserver:nn1.cluster1.com/192.168.1.11:9000.Alreadytried9time(s);retrypolicyisRetryUpToMaximumCountWithFixedSleep(maxRetries=1

hadoop - Tasktracker如何获取必要的数据

我有数据科学背景,所以我使用Hadoop的目标是将大量数据存储在HDFS中。并使用集群对这些数据集的一部分执行一些(并行的)分析(例如一些机器学习算法)。更具体一点,考虑以下情况:对于存储在HDFS中的一些大型数据集,我想对这个数据集的100个随机样本运行一个简单的算法,然后组合这些结果。根据我对这个概念的理解,要实现这一点,我可以写一个Map告诉Tasktrackers的函数在我的集群节点上对部分数据执行分析。此外,我应该写一个Reduce函数来“合并”结果。现在是技术方面;据我了解,我集群中的每台机器都包含一个DataNode和一个TaskTracker.我想象一个TaskTrac

azure - hadoop集群,datanode无法运行,排除0个节点

我正在Azure的Hadoop中创建一个多节点(1主和3从)集群,我认为所有的设置都已经完成,但是当我运行一个测试文件时,它遇到了与Stackoverflow中其他人类似的问题,我已经尝试了他们的解决方案,但是,这个问题仍然无法解决。谁能帮助我,我在这个问题上卡了几天org.apache.hadoop.ipc.RemoteException(java.io.IOException):File/benchmarks/TestDFSIO/io_control/in_file_test_io_0couldonlybereplicatedto0nodesinsteadofminReplicat