jjzjj

IOException

全部标签

java.io.IOException : File/tmp/hadoop-eo/mapred/system/jobtracker. 信息只能复制到 0 个节点,而不是 2 个

当我在我们的主机上部署hadoopnamenode时,我们一次又一次地遇到异常,任何人都可以帮助提供任何建议吗?提前致谢。2014-08-0509:08:00,538INFOorg.apache.hadoop.hdfs.server.namenode.FSNamesystem:Numberoftransactions:31Totaltimefortransactions(ms):1NumberoftransactionsbatchedinSyncs:0Numberofsyncs:21SyncTimes(ms):172014-08-0509:08:00,542INFOorg.apache

hadoop - 许多输入文件到 SINGLE 映射。哈多普。如何?

如何对多个输入文件只使用一张map?因为Hadoop为一个文件创建了一个映射器。对于所有文件,我只需要一个映射器。我尝试使用CombineFileInputFormat。它有一个映射器,但映射输入只包含一个文件。我需要该输入映射值来包含来自所有文件(文本格式)的数据,如下所示:输入map值:datafromfile1.txtdatafromfile2.txtdatafromfile3.txtpublicclassWholeFileInputFormatextendsCombineFileInputFormat{publicWholeFileInputFormat(){super();s

java - hadoop jar 命令无法识别输入文件

WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicableExceptioninthread"main"java.io.FileNotFoundException:File/usr/hdfs/Deliverydetails.txtdoesnotexist.atorg.apache.hadoop.util.GenericOptionsParser.validateFiles(GenericOptionsParser.j

java - 将文件写入 Hdfs 时出现 IOException

我正在开发一个程序,该程序从mqtt代理获取gps数据并将其加载到hadoop集群中。在尝试将数据写入hdfs时,我得到了IOException。以下是完整的堆栈跟踪:java.io.IOException:Failedonlocalexception:com.google.protobuf.InvalidProtocolBufferException:Messagemissingrequiredfields:callId,status;HostDetails:localhostis:"quickstart.cloudera/192.168.25.170";destinationhos

hadoop - java.io.IOException :java. lang.ClassCastException : org. apache.hadoop.hbase.client.Result 无法转换为 org.apache.hadoop.io.Writable

尝试了一个从hive处理hbase中的表的示例。CREATEEXTERNALTABLE命令成功,但是select语句给出类转换异常环境:hive0.12.0,hbase0.96.1,hadoop2.2,Virtualbox上的Ubuntu12.04hive>SHOWTABLES;OKhbatablese_myhiveTimetaken:0.309seconds,Fetched:1row(s)hive>SELECT*FROMhbatablese_myhive;OK**异常失败java.io.IOException:java.lang.ClassCastException:org.apac

hadoop - 运行 Map Reduce 作业显示错误 - Mkdirs 无法创建/var/folders/

当我在Mac终端中运行mapreduce作业时:PawandeepSingh1$hadoopjarMaximumTemperature.jarExceptioninthread"main"java.io.IOException:Mkdirsfailedtocreate/var/folders/v1/lyx_f0rj615cy8s54_bk053h0000gp/T/hadoop-unjar3698429834837790177/META-INF/licenseatorg.apache.hadoop.util.RunJar.ensureDirectory(RunJar.java:128)a

windows - Hadoop 二进制文件中的 java.io.IOException : Could not locate executable null\bin\winutils. exe

$bin/start-hbase.sh2015-07-0119:21:34,971ERROR[main]util.Shell:Failedtolocatethewinutilsbinaryinthehadoopbinarypathjava.io.IOException:Couldnotlocateexecutablenull\bin\winutils.exeintheHadoopbinaries.atorg.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:355)atorg.apache.hadoop.util.Shell

hadoop - java.io.IOException : org. apache.hadoop.security.AccessControlException : Client cannot authenticate via:[TOKEN, KERBEROS]

我的配置如下:运行Spark1.2.0,Hadoop2.5.0/YARN,ClouderaCDH5VMCentos6.2运行Windows64位平台8GBRAM下面是从spark-shell运行的命令序列,但在尝试打印custRDD时,我收到Kerberos身份验证错误。我已经从cloudera用户登录到spark-shell,ClouderaVM是Kerberos认证的,默认主体是cloudera@HADOOP.LOCALDOMAIN对于正常的RDD操作,有什么方法可以从spark-shell验证Kerberos吗?或者我遗漏了什么?感谢任何正当的帮助,将得到返回下面是SparkSh

hadoop - 在主节点维护一个数据结构

我在一些数据上编写了一个MR算法来创建一个数据结构。创建后我需要回答一些问题。为了更快地回答这些查询,我根据结果创建了一个元数据(大约几MB)。现在我的问题是:是否可以在主节点的内存中创建此元数据以避免文件I/O,从而更快地回答查询? 最佳答案 假设,根据OP对其他答案的响应,另一个MR作业将需要元数据。在这种情况下使用分布式缓存相当容易:在驱动类中:publicclassDriverClassextendsConfigured{publicstaticvoidmain(String[]args)throwsException{/*

java - Map Reduce 程序抛出异常 IOException "Type mismatch in key from map"

您好,请在下面找到我的代码,它抛出异常。packageHadoopMapReduce;importjava.io.IOException;importjava.util.Iterator;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.Text;importorg.apache.h