jjzjj

NameNode

全部标签

hadoop - 在 hadoop 2.4.1 中启动 namenode 时出错

当我尝试使用以下方式启动dfs时:start-dfs.sh我收到一条错误消息:14/07/0311:03:21WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicableStartingnamenodeson[OpenJDK64-BitServerVMwarning:Youhaveloadedlibrary/usr/local/hadoop/lib/native/libhadoop.so.1.0.0whichmight

hadoop - 如何使用密码保护 Hadoop NameNode 和 JobTracker Web UI?

我想知道如何使用密码保护在端口50030、50070等上运行的HadoopWebUI。 最佳答案 我认为最好的办法是关闭防火墙中的端口,让用户使用SSH隧道连接。 关于hadoop-如何使用密码保护HadoopNameNode和JobTrackerWebUI?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/5054687/

hadoop - 从SVN “no namenode to stop”通过Hadoop替换mapred/hdfs/common jar构建后

我从中checkout源代码http://svn.apache.org/repos/asf/hadoop/commonhttp://svn.apache.org/repos/asf/hadoop/hdfshttp://svn.apache.org/repos/asf/hadoop/mapreduce并得到hadoop-mapred-0.23.0-SNAPSHOT.jarhadoop-hdfs-0.23.0-SNAPSHOT.jarhadoop-common-0.23.0-SNAPSHOT.jar但是我无法使用这些jar启动all.sh...Jobtracker和tasktracker启

hadoop - Namenode 没有退出安全模式

我正在尝试将一些虚拟文件放入HDFS,但它显示foll。错误:$hadoopfs-putdummy.txt/user/hadoopput:org.apache.hadoop.hdfs.server.namenode.SafeModeException:Cannotcreatefile/user/hadoop/dummy.txt.Namenodeisinsafemode.为此我尝试了命令:$hadoopdfsadmin-safemodeleave并尝试执行之前的hadoopput命令。但它又给我同样的错误。名称节点未退出安全模式。请提供任何帮助。 最佳答案

hadoop -/etc/hosts文件如何影响datanode和namenode的连接?

我现在正在建立一个hadoop集群(4台机器包括1台运行namenode和jobTracker的master,3台运行dataNode和TaskTracker的slave)。但遗憾的是所有datanode无法连接到9000端口上的master。当我使用sudonetsat-ntlp,结果是:tcp000.0.0.0:521930.0.0.0:*LISTEN-tcp000.0.0.0:20490.0.0.0:*LISTEN-tcp000.0.0.0:392670.0.0.0:*LISTEN7284/rpc.mountdtcp000.0.0.0:332190.0.0.0:*LISTEN72

java - hadoop java.io.IOException : while running namenode -format on OSX 错误

我在格式化namenode时遇到以下错误,我已经尝试使用sudosu,正如其他一些堆栈溢出解决方案中提到的那样,但我仍然遇到此错误,请协助。14/01/1616:10:41INFOutil.GSet:ComputingcapacityformapINodeMap14/01/1616:10:41INFOutil.GSet:VMtype=64-bit14/01/1616:10:41INFOutil.GSet:1.0%maxmemory=889MB14/01/1616:10:41INFOutil.GSet:capacity=2^20=1048576entries14/01/1616:10:4

hadoop - namenode.NameNode : Could not initialize shared edits dir

您好,我在HA集群配置时间遇到了所有这些错误。请帮助我哪里错了。14/09/0811:13:38INFOnamenode.AclConfigFlag:ACLsenabled?false14/09/0811:13:38INFOcommon.Storage:Lockon/usr/local/hadoop/dfs/tmp/dfs/name/in_use.lockacquiredbynodename1170@n314/09/0811:13:38WARNnamenode.FSNamesystem:Encounteredexceptionloadingfsimagejava.io.IOExcept

java - 是否建议每次在运行 jps 之前格式化 namenode?

我已经成功安装了Hadoop。但是当我启动所有守护进程并运行jps时,我看不到名称节点。但是,如果我使用命令hadoopnamenode-format格式化namenode,我可以在运行jps时看到namenode。是否建议每次在运行jps之前格式化namenode?有没有其他方法可以避免这种情况,这样我就可以看到我的namenode守护进程,而不必每次都格式化它。任何建议表示赞赏。谢谢,高瑟姆 最佳答案 是的,每次启动守护进程之前都需要格式化名称节点,除非您没有覆盖hdfs配置dfs.name.dir、dfs.data.dir。默

hadoop - Namenode 的元数据存储

名称节点也知道给定文件的所有block所在的数据节点,但是,它不会持久存储block位置,因为此信息是在系统启动时从数据节点重建的。坚持到底是什么意思? 最佳答案 这里持久化意味着名称节点将在内存中存储有关block信息的信息,而不是在文件系统或HDFS或任何数据库或任何类型的外部存储中维护这些信息。想想如果它持久保存在文件系统上,那么下次启动集群时,您将拥有所有信息。但是你认为名称节点的信息会是最新的吗?假设一个数据节点可能由于硬件故障而关闭,因此带有名称节点的信息将是陈旧的。 关于h

hadoop - 错误配置 : namenode address dfs. namenode.servicerpc-address 或 dfs.namenode.rpc-address 没有配置

我正在尝试在ec2-instance上安装Hadoop-2.6.0。我下载并安装了Hadoop。我还设置了环境变量。尝试启动hdfs服务时出现以下错误。[ec2-user@ip-10-177-1-69sbin]$./start-dfs.sh配置不正确:namenode地址dfs.namenode.servicerpc-address或dfs.namenode.rpc-address没有配置。在[]上启动名称节点报错:找不到配置目录:/home/ec2-user/hadoop2.6.0/etc/hadoop报错:找不到配置目录:/home/ec2-user/hadoop2.6.0/etc