jjzjj

Hadoop HA Namenode远程访问

我正在使用HA名称节点配置Hadoop2.2.0稳定版,但我不知道如何配置对集群的远程访问。我配置了手动故障转移的HA名称节点,我定义了dfs.nameservices,我可以从集群中包含的所有节点访问带有名称服务的hdfs,但不能从外部访问。我可以通过直接联系事件名称节点来对hdfs执行操作,但我不想那样,我想联系集群然后被重定向到事件名称节点。我认为这是HA集群的正常配置。现在有人知道怎么做吗?(提前致谢...) 最佳答案 您必须向hdfs站点添加更多值:dfs.ha.namenodes.mynsmachine-98,machi

Hadoop Ha namenode java 客户端

我是hdfs的新手。我正在编写可以连接远程hadoop集群并将数据写入远程hadoop集群的Java客户端。StringhdfsUrl="hdfs://xxx.xxx.xxx.xxx:8020";FileSystemfs=FileSystem.get(hdfsUrl,conf);这很好用。我的问题是如何处理启用HA的hadoop集群。启用HA的hadoop集群将有两个名称节点——一个事件名称节点和一个备用名称节点。如何在运行时从我的客户端代码中识别事件名称节点。http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.1.1/bk_syst

hadoop - 使用 Hive-2.0.1(Derby 支持)配置 HA 集群显示冗余数据库名称?

我已经配置了一个Namenode和一个Standby以及一个数据节点的HACluster。我已经使用hiveserver2(Hive-2.0.1)启动了derby数据库。启动hiveserver后,打开beeline.cmd查看存在的数据库数。默认显示2次:0:jdbc:hive2://hostname:port/default>显示数据库;+----------------+--+|数据库名称|+----------------+--+|默认||默认|+----------------+--+选择了3行(0.027秒)那时我无法在那个hive2中创建表。谁能告诉我这个问题的原因?感谢

hadoop - 名称节点 HA (UnknownHostException : nameservice1)

我们通过ClouderaManager启用Namenode高可用性,使用ClouderaManager>>HDFS>>Action>EnableHighAvailability>>SelectedStandByNamenode&JournalNodes然后nameservice1一旦整个过程完成,然后部署客户端配置。通过列出HDFS目录(hadoopfs-ls/)然后手动故障转移到备用名称节点并再次列出HDFS目录(hadoopfs-ls/)从客户端机器进行测试。这个测试非常有效。但是当我使用以下命令运行hadoopsleep作业时失败了$hadoopjar/opt/cloudera/

hadoop - 使用 hdfs ://URI 时的 NameNode HA

使用HDFS或HFTPURI方案(例如hdfs://namenode/path/to/file)我可以访问HDFS集群而不需要它们的XML配置文件。这在运行shell命令如hdfsdfs-get、hadoopdistcp或从Spark读取文件如sc.hadoopFile()时非常方便,因为我不必将所有相关HDFS集群的xml文件复制和管理到这些代码可能运行的所有节点。这种方法的一个缺点是我必须使用事件NameNode的主机名,否则Hadoop会抛出异常,提示NN处于备用状态。通常的解决方法是尝试一个然后在捕获到任何异常时尝试另一个,或者直接连接到ZooKeeper并使用protobuf

Redis ha helm 图表错误 - NOREPLICAS 没有足够好的副本来写入

我正在尝试在本地kubernetes(适用于windows的docker)上设置redis-hahelmchart。我正在使用的helm值文件是,##Configureresourcerequestsandlimits##ref:http://kubernetes.io/docs/user-guide/compute-resources/##image:repository:redistag:5.0.3-alpinepullPolicy:IfNotPresent##replicasnumberforeachcomponentreplicas:3##Customlabelsforther

c# - 使用 C# asp.net/Net 4.7 为 HA 缓存大对象

我正在尝试缓存一个需要为用户提供15分钟的大对象(大约25MB)。一开始,我使用的是MemoryCache(单服务器),但现在我们要走HA路线,我们需要它对所有服务器可用。我们尝试用Redis替换它,但在序列化和反序列化对象以及往返(newtonsoft.json序列化)之间需要大约2分钟(在本地主机上)。因此,问题是:如何在HA中的服务器之间共享生命周期较短的大型对象?感谢阅读:) 最佳答案 我很幸运从JSON切换到Protobufser/de,使用Protobuf-netpackage.但是,听起来即使将它减少到经常重复的6倍更

tcp - 如何在 HA 代理后端动态添加服务器?

我正在使用HA代理版本1.6.6来平衡rabbitmq服务器的负载,它工作正常,但我想使用脚本在ubuntu的ha代理后端中动态添加服务器。谁能告诉我该怎么做? 最佳答案 HAProxyOSSv1.8在RuntimeAPI中不包含add/remove命令,但是您可以使用ready/disabled状态命令实现类似的功能。在disabled状态下在haproxy.cfg中添加服务器配置:server-templatewebsrv1-100192.168.122.1:8080checkdisabled//这将添加100个处于禁用状态的服

hadoop HA高可用集群实战

文章目录1概述2HDFS-HA工作机制2.1HDFS-HA工作要点2.2HDFS自动故障转移工作3HDFS-HA集群配置3.1环境准备3.2搭建ZooKeeper集群3.3配置HDFS-HA集群3.3.1配置环境3.3.2配置core-site.xml3.3.3配置hdfs-site.xml3.3.4启动HDFS-HA集群3.3.5配置HDFS-HA自动故障转移1具体配置2同步配置3启动4验证5其他处理3.4YARN-HA配置3.4.1yarn-site.xml3.4.2启动hdfs3.4.3启动YARN3.5查看集群报错处理重新格式化1概述HA(highavailable),即高可用(24h

deployment - 为什么通过redis-ha在k8s上集群不起作用?

我正在尝试与Node.JS(ioredis/cluster)一起创建Redis集群,但这似乎不起作用。在GKE上是v1.11.8-gke.6。我正在做的正是ha-redis文档中所说的:~helminstall--setreplicas=3--nameredis-teststable/redis-haNAME:redis-testLASTDEPLOYED:FriApr2600:13:312019NAMESPACE:ytSTATUS:DEPLOYEDRESOURCES:==>v1/ConfigMapNAMEDATAAGEredis-test-redis-ha-configmap30sr