jjzjj

java - Hadoop input.FileSplit 不能大小写为 mapred.FileSplit

我正在尝试使用以下代码在HadoopMapper中获取文件名:FileSplitfileSplit=(FileSplit)context.getInputSplit();Stringfilename=fileSplit.getPath().getName();我导入的库是:importorg.apache.hadoop.mapred.FileSplit;我得到异常:org.apache.hadoop.mapreduce.lib.input.FileSplitcannotbecasttoorg.apache.hadoop.mapred.FileSplit有人可以帮忙吗?

java - 在 org.apache.hadoop.mapred.MapTask$NewOutputCollector 关闭期间忽略异常

我创建了一个hadoop自定义可写对象,如下所示publicclassResultTypeimplementsWritable{privateTextxxxx;privateTextyyyy;privateTextzzzz;publicResultType(){}publicResultType(Textxxxx,Textyyyy,Textzzzz){this.xxxx=xxxx;this.yyyy=yyyy;this.zzzz=zzzz;}publicTextgetxxxx(){returnthis.xxxx;}publicTextgetyyyy(){returnthis.yyyy;

hadoop - 是否可以将 mapR 与纯 apache hadoop 结合起来?

我是hadoop的新手。我听说mapR是挂载hadoopHDFS的更好方法,而不是fuse。但大多数相关文章只是描述mapRhadoop而不是纯apachehadoop。有人有使用mapR安装纯apachehadoop的经验吗?提前致谢。 最佳答案 MapR不仅仅是一种挂载HDFS的方式。MapR包括Hadoop和许多Apache生态系统组件以及许多其他非Apache组件,例如Cascading。它还包括包含Solr的LucidWorks。MapR还包括HDFS的重新实现,称为MaprFS。MaprFS具有更高的性能,具有读写语义,

java - Hadoop Map/Reduce WARN mapred.LocalJobRunner : job_local_0001 java. io.EOFException?

在Eclipse6.91中运行Hadoop0.20.2M/R应用。我在执行后收到这些错误和警告:13/07/2416:52:52INFOjvm.JvmMetrics:InitializingJVMMetricswithprocessName=JobTracker,sessionId=13/07/2416:52:52WARNmapred.JobClient:UseGenericOptionsParserforparsingthearguments.ApplicationsshouldimplementToolforthesame.13/07/2416:52:52WARNmapred.Jo

java - apache avro 中的 mapred 和 mapreduce 包有什么区别?

我正在从事我的项目以整合apacheavro进入我的MapR程序。然而,我很困惑与ma​​pred相比,通过使用新的ma​​preduce包。latter详细说明如何使用在不同的情况下,新的信息较少。但是我知道的是,它们分别对应hadoop的新旧接口(interface)。有没有人有使用ma​​preduce接口(interface)的经验或例子对于输入为非Avro数据的作业(例如TextInputFormat)文件输出为avro文件。 最佳答案 这两个包代表相应的Hadoopmapred和mapreduceAPI的输入/输出格式、

optimization - Hadoop 作业 - 使用我机器中的所有内核

我使用默认配置的hadoop作业->本地文件系统上的本地模式没有使用我系统中的所有内核(16)->通过使用所有内核,我的意思是,我可以在各种实例中看到所有内核的事件。但是,我的CPU使用率[fromtop]从未超过200%,因此我在conf中更改了这些配置。mapred.tasktracker.map.tasks.maximum将其设置为8,mapred.tasktracker.reduce.tasks.maximum也将其设置为8。我的核心使用率仍然低于300%。如何通过使用所有核心从机器获得最大吞吐量?此外,我的文件大小约为1TB。这是作业运行的示例日志。我看到它在运行作业时创建了

java - 使用单节点配置运行 Hadoop

我在单节点上使用hadoop。我是hadoop的新手,所以请多多包涵。我使用教程“http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/”和“https://sites.google.com/site/jianpengxu/tutorials/hadoop-setup”来安装hadoop。命令jps显示hadoop节点已启动并正在运行。当我尝试运行wordcount时(例如)"bin/hadoopjarhadoop-0.20.2-examples.jarwordc

hadoop - eclipse wordcount 程序中找不到类异常

我正在从eclipse运行一个字数统计程序,它说找不到类。我导出了与jar文件相同的程序并从命令行执行,它工作正常。错误堆栈跟踪14/02/1423:46:16WARNmapred.JobClient:UseGenericOptionsParserforparsingthearguments.ApplicationsshouldimplementToolforthesame.14/02/1423:46:16WARNmapred.JobClient:Nojobjarfileset.Userclassesmaynotbefound.SeeJobConf(Class)orJobConf#se

r - 避免在运行时在 HDP 上修改 mapred.child.env,以便 R 可以使用 RHive 建立与 hiveserver2 的连接

我正在尝试让R的RHive包与hiveserver2很好地通信。我在尝试使用以下方式连接到hiveserver2时收到错误消息:>rhive.connect(host="localhost",port=10000,hiveServer2=TRUE,user="root",password="hadoop")初始运行的输出:SLF4J:ClasspathcontainsmultipleSLF4Jbindings.SLF4J:Foundbindingin[jar:file:/usr/hdp/2.2.0.0-2041/hadoop/client/slf4j-log4j12-1.7.5.jar

hadoop - 如何从 Hadoop 日志中找到中间输出字节大小并减少输出字节大小?

如何从hadoop日志中估计Mappers的总中间输出大小(以字节为单位)和Reducers的总输出大小(以字节为单位)?我的映射器和缩减器使用LZO压缩,我想知道压缩后映射器/缩减器输出的大小。15/06/0617:19:15INFOmapred.JobClient:map100%reduce94%15/06/0617:19:16INFOmapred.JobClient:map100%reduce98%15/06/0617:19:17INFOmapred.JobClient:map100%reduce99%15/06/0617:20:04INFOmapred.JobClient:ma