jjzjj

apache-spark - 如何将作业提交到其他集群上的 yarn ?

我有一个安装了spark的docker容器,我正在尝试使用marathon将作业提交到其他集群上的yarn。docker容器具有yarn和hadoopconf目录的导出值,yarn文件还包含emrmasterip的正确地址,但我不确定它从哪里作为本地主机?ENVYARN_CONF_DIR="/opt/yarn-site.xml"ENVHADOOP_CONF_DIR="/opt/spark-2.2.0-bin-hadoop2.6"yarn.xmlyarn.resourcemanager.hostnamexx.xxx.x.xx命令:"cmd":"/opt/spark-2.2.0-bin-h

hadoop - 我的 MapReduce 工作失败了

在Eclipse中有一个mapreduce程序。我想运行它。我按照以下网址中的程序操作:http://www.orzota.com/step-by-step-mapreduce-programming/我执行页面上说的所有事情并运行程序。但它显示错误,我的工作失败了。程序创建了输出文件夹,但它是空的。这是我的鳕鱼:packageorg.orzota.bookx.mappers;importjava.io.IOException;importorg.apache.hadoop.io.*;importorg.apache.hadoop.mapred.MapReduceBase;import

hadoop - 使用hadoop的mapreduce中溢出的记录是否应该始终等于mapinput记录或mapoutput记录?

我正在研究在hadoop中使用mapreduce的矩阵乘法示例。我想问一下,溢出记录是否应该始终等于mapinput和mapoutput记录。我有不同于mapinput和mapoutput记录的溢出记录这是我得到的其中一项测试的输出:ThreebythreetestIB=1KB=2JB=111/12/1413:16:22INFOinput.FileInputFormat:Totalinputpathstoprocess:211/12/1413:16:22INFOmapred.JobClient:Runningjob:job_201112141153_000311/12/1413:16:

python - # 失败的映射任务超出了允许的限制

我正在尝试使用Python进行Hadoop流式处理。我在here的帮助下编写了简单的map和减少脚本。map脚本如下:#!/usr/bin/envpythonimportsys,urllib,retitle_re=re.compile("(.*?)",re.MULTILINE|re.DOTALL|re.IGNORECASE)forlineinsys.stdin:url=line.strip()match=title_re.search(urllib.urlopen(url).read())ifmatch:printurl,"\t",match.group(1).strip()和redu

hadoop - 无法执行目标 org.apache.maven.plugins :maven-antrun-plugin:1. 6:在项目 hadoop-project-dist 上运行(pre-dist):

我需要帮助,因为我在过去2-3天试图解决这个问题..我正在Windows-7(64位)机器上设置Hadoop。这是为了尝试R与Hadoop的集成。我按照URL-http://www.srccodes.com/p/article/38/build-install-configure-run-apache-hadoop-2.2.0-microsoft-windows-os中给出的Hadoop安装说明进行操作环境变量如下JAVE_HOME:C:\ProgramFiles\Java\jdk1.6.0_45M2_HOME:C:\Hadoop\apache-maven-3.1.1路径:C:\cyg

Maven - 测试中的不同依赖版本

我遇到了类似于Maven2-differentdependencyversionsintestandcompile的问题但那里指定的答案不起作用。在我的项目中,我需要依赖Hadoop的Cloudera发行版和用于JUnit测试的“vanilla”版本,因为前者仅适用于*nix。当我尝试执行我的应用程序时,我得到Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/hadoop/conf/Configuration。当我从Maven或Eclipse运行JUnit测试时,一切正常。如果我注释掉test依赖项,应用程

hadoop - Sqoop 导入到 HCatalog/Hive - 表不可见

使用Ambari2.2.2.0安装HDP-2.4.2.0-258我必须导入几个SQLServer模式,这些模式应该可以通过Hive、Pig、MR和任何第三方(将来)访问。我决定导入HCatalog。Sqoop提供了导入到Hive或HCatalog的方法,我想如果我导入到HCatalog,同一个表将可以从HiveCLI、MR和Pig访问(请评估我的假设)。问题:如果直接导入到Hive,该表是否可供Pig、MR使用?如果导入到HCatalog,通过Hive访问需要做什么?是否需要在Hive中预先创建表?如果是,在HCatalog中导入的优势是什么,(我可以直接在Hive中导入)/(在HDF

bin/hadoop tasktracker 命令中的 Hadoop/cygwin 失败

我正在关注http://ebiquity.umbc.edu/Tutorials/Hadoop/00%20-%20Intro.html通过执行在第一个窗口中启动namenodecdhadoop-0.19.1bin/hadoop名称节点通过执行在第二个窗口中启动辅助名称节点cdhadoop-0.19.1bin/hadoopsecondarynamenode通过执行启Action业跟踪器的第三个窗口cdhadoop-0.19.1bin/hadoopjobtracker通过执行启动数据节点第四个窗口cdhadoop-0.19.1bin/hadoop数据节点通过执行启动任务跟踪器的第五个窗口cd

java - 在 mac os 上从源代码编译 Hadoop Native 库

我正在努力从源代码编译最新的Hadoop,但有下一个异常(exception):[INFO]Executedtasks[INFO][INFO]---maven-remote-resources-plugin:1.5:process(default)@hadoop-pipes---[INFO][INFO]---hadoop-maven-plugins:3.0.0-alpha2-SNAPSHOT:cmake-compile(cmake-compile)@hadoop-pipes---[INFO]Runningcmake/Users/romeo/Repository/hadoop/hadoo

hadoop - Apache Spark 在工作开始前做什么

我有一个在AWSEMR上连续运行的ApacheSpark批处理作业。它从AWSS3中提取数据,使用该数据运行几个作业,然后将数据存储在RDS实例中。但是,作业之间似乎有很长一段时间没有事件。这是CPU使用情况:这是网络:注意每列之间的间隙,它几乎与事件列的大小相同!起初我以为这两列发生了移动(当它从S3中提取时,它没有使用大量CPU,反之亦然)但后来我注意到这两个图表实际上是相互跟随的。这是有道理的,因为RDD是惰性的,因此会在作业运行时拉动。这引出了我的问题,那段时间Spark在做什么?在那段时间里,所有的Ganglia图表似乎都归零了。就好像集群决定在每个作业之前休息一下。谢谢。编