jjzjj

maven - Apache Bigtop 未构建

我正在关注theseinstructionforsettingupApacheBigtop,最终支持我运行Oozie。我正在尝试使用Bigtop,因为如果我想在Hadoop2+上运行我的Oozie安装,Oozie网站建议使用Bigtop。运行步骤后makehadoop-deb我收到以下错误消息(完整消息HERE):[INFO]------------------------------------------------------------------------[INFO]ReactorSummary:[INFO][INFO]ApacheHadoopMain...........

hadoop - 调试教程 Hadoop Pipes-Project

我正在处理这个tutorial并到达最后一部分(有一些小的变化)。现在,我遇到了无法理解的错误消息。damian@damian-ThinkPad-T61:~/hadoop-1.1.2$bin/hadooppipes-Dhadoop.pipes.java.recordreader=true-Dhadoop.pipes.java.recordwriter=true-inputdft1-outputdft1-out-programbin/word_count13/06/0920:17:01INFOutil.NativeCodeLoader:Loadedthenative-hadooplibr

maven - 使用 Maven 错误构建 Hadoop

当我尝试使用以下方法构建hadoop时:mvninstall-e-DskipTests它总是抛出以下错误:[INFO]-------------------------------------------------------------[ERROR]COMPILATIONERROR:[INFO]-------------------------------------------------------------[ERROR]/home/xiu/myGit/hadoop2/hadoop-mr1-project/hadoop-mr1/src/test/java/org/apache

hadoop - 运行 WordCount v1.0 示例时 part-00000 中没有输出

我是Cloudera和Hadoop的新手,ClouderaWordCount1.0示例(part-00000)的输出为空。我使用的步骤和文件是here.我想提供任何有帮助的工作日志信息,同上版本-我只需要一些关于在哪里可以找到它们的指导。以下是作业输出和来源。在写入的其他部分(part-00001到part-00011)中,非空部分是part-00001(再见1)、part-00002(Hadoop2)、part-00004(再见1)、part-00005(世界2),和part-00009(你好2)。任何帮助都会很棒。命令和输出如下:[me@server~]$hadoopfs-cat/

Spring hadoop 映射器配置

我正在使用Hadoop1.2.1和SpringHadoop1.0.2我想检查HadoopMapper中的SpringAutowiring。我写了这个配置文件:fs.default.name=${hd.fs}然后我创建了这个MapperpublicclassMyMapperextendsMapper{privatestaticfinalLoglogger=....@AutowiredprivateIHistoricalDataServicehbaseService;privateListdata;@SuppressWarnings({"unchecked","rawtypes"})@Ov

hadoop - 为什么 reducer 的数量大于我在 Hadoop 中指定的数量?

这是我的MR作业在控制台上的输出。作业成功完成。但我有两个顾虑。1)我指定了-Dmapred.reduce.slowstart.completed.maps=0.75。但是本地图完成75%时reducer没有启动,如下所示2)我指定了-Dmapred.reduce.tasks=2。但是启动的reducer任务的数量是3(如下所示)。为什么这两个参数没有被处理?hadoopjarhadoop-examples-1.2.1.jarwordcount-Dmapred.reduce.slowstart.completed.maps=0.75-Dmapred.reduce.tasks=2/dat

hadoop - 为什么运行 1TB teragen 时没有 reducer ?

我正在使用以下命令为hadoop运行terasort基准测试:jar/Users/karan.verma/Documents/backups/h/hadoop-2.6.4/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jarteragen-Dmapreduce.job.maps=1001trandom-data并为100个maptask打印了以下日志:18/03/2713:06:03WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform..

hadoop - Hive CLI 无法从另一个表创建表

我一直在尝试创建一个包含来自另一个表的列的表,但HiveCLI始终无法这样做。查询如下:CREATETABLEtweets_id_sampleASSELECTidFROMtweets_sample;伴随此Hive查询的CLI错误如下:TotalMapReducejobs=3LaunchingJob1outof3Numberofreducetasksissetto0sincethere'snoreduceoperatorStartingJob=job_201310250853_0023,TrackingURL=http://sandbox:50030/jobdetails.jsp?job

scala - mutable.Buffer 不适用于类型安全 API 的 Scalding JobTest

我几乎完成了我的Scalding项目,该项目使用类型安全API而不是字段API。在整个项目设置中留给我的最后一个问题是整个Scalding作业本身的集成测试(我已经完成了类型安全外部操作模式的单元测试耶!)。这意味着运行完整的作业并测试我的作业的各种接收器的输出。然而,一些非常奇怪的事情正在发生。在我的typedSink{scala.collection.mutable.Buffer[]=>Unit}似乎我的程序没有看到缓冲区或对缓冲区做任何事情,所以集成测试总是通过,即使它不应该通过。下面是工作本身和有助于阐明正在发生的事情的测试:objectMyJob{valinputArgPat

java - 为什么 hadoop 输出文件 part-r-00000 是空的

我的MR日志是:[root@siconglihadoop-2.4.1]#hadoopjarflowcount.jarcn.itheima.bigdata.hadoop.mr.flowcount.FlowCount/data/join.txt/out16/04/1323:32:20WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicable16/04/1323:32:22INFOclient.RMProxy:Connec