jjzjj

SparkException

全部标签

java - 谁能解释我的 Apache Spark 错误 SparkException : Job aborted due to stage failure

我有一个简单的ApacheSpark应用程序,我在其中从hdfs读取文件,然后将其通过管道传输到外部进程。当我读取大量数据(在我的例子中文件大约有241MB)并且我没有指定最小分区数或将最小分区数指定为4时,我收到以下错误:Exceptioninthread"main"org.apache.spark.SparkException:Jobabortedduetostagefailure:Task1instage0.0failed4times,mostrecentfailure:Losttask1.3instage0.0(TID6,ip-172-31-36-43.us-west-2.co

ERROR SparkContext: Error initializing SparkContext.org.apache.spark.SparkException:无效的 Spark URL:

...........................................................................................................................................................在idea中用scala编写spark的WordCount的案例时,老是报错,scala能运行其他程序scala没有问题,依赖按照视频教程也成功下载,Maven仓库也下载的巴巴适适,报的错误太多了,我节选有价值的错误信息:..................................

apache-spark - 亚马逊电子病历 : Spark - SparkException java IOException: Failed to create local dir in/tmp/blockmgr*

我有一个带有Spark的AWSEMR集群。我可以连接到它(spark):通过SSH连接到主节点后从主节点来自另一个AWSEMR集群但无法连接到它:从我的本地机器(macOSMojave)来自非emr机器,如Metabase和Redash我已阅读thisquestion的答案.我已经检查过所有节点上的文件夹权限和磁盘空间都没有问题。我的假设是我面临着类似的问题JamesWierzba在评论中提问。但是,我没有足够的声誉在那里添加评论。此外,考虑到它特定于AWSEMR,这可能是一个不同的问题。SSH连接到主节点后连接工作正常。#SSHedtomasternode$ssh-i~/identi

scala - 在 HDFS 上写入 DataFrame 期间出现 SparkException

我正在使用YARN在Hadoop集群上运行以下代码。它解析一些电子邮件并执行情感注释,最后将结果DataFrame写入HDFS上的Parquet表。不幸的是,它在HDFS上最后一个数据帧写入的#66行一直失败,错误显示在底部。无论如何,我无法解释为什么每当我使用数据集的一小部分样本时它都会成功终止。objectETLDriver{valappName="ENRON-etl"valconf=newSparkConf().setAppName(appName)valsc=newSparkContext(conf)defmain(args:Array[String]):Unit={valal