jjzjj

NegativeArraySizeException

全部标签

java - Spark,序列文件时出现NegativeArraySizeException

我使用的spark是2.3。我有这段代码片段,它读取'hdfspath'下的序列文件(这个路径下大约有20个文件,每个文件大约60MB),SparkSessionspark=...;JavaSparkContextjsc=JavaSparkContext.fromSparkContext(spark.sparkContext());JavaPairRDDtemp=jsc.sequenceFile(hdfspath,BytesWritable.class,BytesWritable.class);temp.take(1);它给了我这个错误,19/04/0314:50:18INFOCode

hadoop - 创建具有较大 (>1GB) BytesWritable 值大小的 SequenceFile 时出现 NegativeArraySizeException

我尝试了不同的方法来创建一个大型的HadoopSequenceFile只是一个短的(1GB)值(BytesWriteable)。以下示例适用于开箱即用:https://svn.apache.org/repos/asf/hadoop/common/trunk/hadoop-mapreduce-project/hadoop-mapreduce-client/hadoop-mapreduce-client-jobclient/src/test/java/org/apache/hadoop/mapred/BigMapOutput.java写入多个随机长度的键和值,总大小>3GB。然而,这不是我