jjzjj

Hadoop学习笔记(HDP)-Part.14 安装YARN+MR

目录Part.01关于HDPPart.02核心组件原理Part.03资源规划Part.04基础环境配置Part.05Yum源配置Part.06安装OracleJDKPart.07安装MySQLPart.08部署Ambari集群Part.09安装OpenLDAPPart.10创建集群Part.11安装KerberosPart.12安装HDFSPart.13安装RangerPart.14安装YARN+MRPart.15安装HIVEPart.16安装HBasePart.17安装Spark2Part.18安装FlinkPart.19安装KafkaPart.20安装Flume十四、安装YARN+MR1.

hadoop - 在 HDP Hue Pig UI 中运行任何 Pig 作业时出错。错误 : "Please initialize HIVE_HOME"

当我尝试从HuePigUI启动PigScriptJob时,进程会启动一个作业,然后进度条在那里停留1-3分钟并最终变成红色,唯一的输出是:“PleaseinitializeHIVE_HOME”我尝试运行的Pig脚本来自PigvalidationintheHDPinstallationmanual.pig脚本:A=使用PigStorage(':')加载'passwd';B=foreachA生成\$0作为id;将B存入'/tmp/id.out';我正在尝试让Hortonworks数据平台的Hue版本(v2.3,根据他们的website)运行PigScriptUI。我正在手动执行此操作,使用

hadoop - 我如何在 HDP 2.2 和 ambari 1.7 中制作多个 hiveserver2

我在30节点集群中有1个hiveserver2,现在我想通过ambari创建4个hiveserver2守护进程。我如何在HDP2.2和ambari1.7中创建多个hiveserver2?我知道我们可以直接启动配置单元服务器并将属性设置为自动搜索但是我们不能通过ambari监控这个守护进程。 最佳答案 它仅在Ambari2.0.0中受支持:https://issues.apache.org/jira/browse/AMBARI-8906 关于hadoop-我如何在HDP2.2和ambari

hadoop - 如何安装 Hortonworks 的 HDP?

我是这方面的新手,我想知道如何按照下一个规范安装Hortonworks、HDP(http://hortonworks.com/products/data-center/hdp/)提供的解决方案:我有2台虚拟机和另一台要使用的本地机器,我我想在配置ApacheSPARK时将2个虚拟机用作主节点和工作节点。但我的问题是:我必须做什么才能正确安装HDP?我必须在我的本地机器上安装te解决方案并配置ApacheSPARK以将这2个虚拟机用作主节点和工作节点?或者我必须在我拥有的3台机器上安装HDP?我再说一遍,我是这方面的新手,如果您能提供任何答案或评论,这对我都将非常有帮助。非常感谢!

hadoop - 带 RAID 的 HDP 集群?

您在HDP集群上使用RAID1的体验如何?我有两个选择:为主节点和zoo节点设置RAID1,完全不要在从属节点(如kafka代理、hbase区域服务器和yarn节点管理器)上使用RAID。即使我失去一个从节点,我也会有另外两个副本。在我看来,RAID只会减慢我的集群。无论如何,使用RAID1设置所有内容。你怎么看?您对HDP和RAID有何体验?您如何看待从节点使用RAID0? 最佳答案 我建议在Hadoop主机上完全不要使用RAID。有一点需要注意,如果您正在运行Oozie和HiveMetastore等在后台使用关系数据库的服务,则

hadoop - HDP 从 HDP 当前版本升级到 2.6.4 失败 - 2.6.0.3

我们有ambari集群版本-2.5.0.3(有3个主节点和3个工作节点)我们正在从HDP版本2.6.0.3升级到2.6.4版本最后阶段安装失败出现在-FinalizeUpgradePre-Check下的错误是Thefollowingcomponentswerefoundtohaveversionmismatches.Finalizewillnotcompletesuccessfully:master03.sys5dns.com:HDFS/ZKFCreportsUNKNOWNmaster01.sys5dns.com:HDFS/ZKFCreportsUNKNOWN还有:{"hosts":[

hadoop - 编写 Flume 配置,将不断增长的文件上传到 HDFS

我是Flume的新手,在配置方面遇到了一些问题。我在OracleVirtualBox上使用HortonworksSandboxHDP2.6.5(如果这很重要)。我的VM中有一个文本文件input_data.txt:input_data.txt的内容如下所示:我使用以下命令来创建并逐渐增加输入:catinput_data.txt|whilereadline;doecho"$line";sleep0.2;done>output.txt我想要实现的目标:1)编写一个Flume配置,将不断增长的output.txt文件上传到HDFS2)如果可能-HDFS中的目标文件必须在每次源文件(/usr/

hadoop - 使用 ambari UI 在 HDP 集群中编辑 hdfs-default.xml

我有一个使用HortonworksDataPlatform2.6.1构建的HBase集群,我想编辑hdfs-default.xml中的一些属性。我们可以使用ambariUI编辑hdfs-default.xml吗?如果我们在所有节点中手动编辑文件,我们需要重新启动哪些服务? 最佳答案 是的,你可以,但Ambari不会编辑默认文件,它会编辑hdfs-site.xml,你至少需要重新启动每个HDFS客户端和服务才能进行更改产生影响。不要手动编辑磁盘上的文件-Ambari会在下次服务重启时覆盖它们

apache-spark - 齐柏林飞艇 : Not Showing Hive Database/tables in HDP3. 0

我已经安装了Hortonworkshdp3.0并配置了Zeppelin。当我运行spark或sql时,Zeppelin只显示默认数据库(这是Spark的默认数据库,位置为“/apps/spark/warehouse”,而不是Hive的默认数据库)。这可能是因为hive.metastore.warehouse.dir属性不是从hive-site.xml设置的,而zeppelin是从Spark配置(spark.sql.warehouse.dir)中选择的。我对spark也有类似的问题,这是由于spark-conf目录中的hive-site.xml文件,我能够通过将hive-site.xml

hadoop - 如何 ?使用 ambari 自动安装 hdp 以进行夜间构建 (CI)

我正在寻找如何安装hortonworks(hdp)集群的说明,使用ambari作为静默安装。我在ambari-server的手册中看到有这样做的选项,但它使用了默认值。amabri-serversetup-s(安装程序静默运行。接受所有默认提示值。)我该怎么做?我该如何更改默认值?我需要它的原因是为了我们的夜间构建。 最佳答案 这不是一个非常优雅的解决方案,但我使用expect通过生成ambari-server设置并自动将预配置值放入提示中来自动安装。 关于hadoop-如何?使用amb