jjzjj

SparkConf

全部标签

java - 使用 SparkConf 连接到远程 Cassandra 集群时如何获得 pass "requires authentication"?

我正在尝试使用apachespark和cassandra进行数据分析。所以我写了一个java代码来访问在远程机器上运行的cassandra。我使用了以下java代码。publicclassJavaDemoimplementsSerializable{privatetransientSparkConfconf;privateJavaDemo(SparkConfconf){this.conf=conf;}privatevoidrun(){JavaSparkContextsc=newJavaSparkContext(conf);generateData(sc);compute(sc);sho

hadoop - ClassNotFoundException : org. apache.spark.SparkConf 与配置单元上的 Spark

我正在尝试使用SPARK作为配置单元执行引擎,但出现以下错误。Spark1.5.0已安装,我正在使用Hive1.1.0版本和Hadoop2.7.0版本。hive_emp表在hive中创建为ORC格式表。hive(Koushik)>insertintotablehive_empvalues(2,'Koushik',1);QueryID=hduser_20150921072727_feba8363-258d-4d0b-8976-662e404bca88Totaljobs=1LaunchingJob1outof1Inordertochangetheaverageloadforareducer

python中导入pyspark中的sparkconf和sparkcontext错误

前景提要:在学习黑马程序员python课程的pyspark实战部分时按照下图导入pysark包时发现sparkconf和sparkcontext无法找到,报错为Cannotfindreference'Sparkconf/Sparkcontext'in'pyspark.py',在网上搜索尝试一系列方法后并未解决。 解决过程:通过everything软件快捷搜索磁盘找到pyspark目录,发现有conf.py和context.py两个文件,猜测与导入的包有关联,用pycharm打开conf.py发现在其中创建了Sparkconf的类解决方法1:直接将将源py文件的frompysparkimport

hadoop - 在 map 函数中获取 sparkConf

如何在javasparkapi的映射函数中获取SparkConf或JavaSparkContext。SparkConfconf=newSparkConf().setAppName("SimpleApplication");JavaSparkContextsc=newJavaSparkContext(conf);JavaRDDdateRDD=javaRDD.map(newFunction(){如何在这个函数中获取这个sparkconf或上下文。我应该将它作为参数传递给构造函数吗?还有其他方法吗? 最佳答案 您误解了Spark的概念。m

hadoop - 构造函数 ClientArguments(String[], SparkConf) 未定义

我正在尝试通过Java代码进行spark-submit。我指的是以下示例。https://github.com/mahmoudparsian/data-algorithms-book/blob/master/misc/how-to-submit-spark-job-to-yarn-from-java-code.md但是我得到了TheconstructorClientArguments(String[],SparkConf)isundefined我的spark-yarn版本是spark-yarn_2.11-2.0.0。我看到了题目:spark-submitthroughjavacode但

JAVA: SparkConf 无法转换为 SparkContext

我尝试在Java中使用Spark创建一个简单的程序,但出现此错误:Error:(10,57)java:incompatibletypes:org.apache.spark.SparkConfcannotbeconvertedtoorg.apache.spark.SparkContext我的代码:packagecom.example.lab;importorg.apache.spark.SparkConf;importorg.apache.spark.api.java.JavaSparkContext;publicclassLab{publicstaticvoidmain(String[