jjzjj

windows - 如何在 Windows 上访问 Spark 中的本地文件?

我在Windows上使用Spark。我知道在*nix中,访问本地文件代码是这样的:valtextFile=sc.textFile("file:///usr/local/spark/README.md")但是如何在Windows上访问本地文件?我尝试了以下方法:vallogFile="C:\spark-1.3.1-bin-hadoop2.4\README.md"vallogFile="file\\C:\spark-1.3.1-bin-hadoop2.4\README.md"但都行不通。 最佳答案 不幸的是,在Windows中你必须转义

java - 使用 Java 8 在 Windows 上调试 spark 进程

我可以使用cmd.exe中的命令在Windows上运行spark:setCLASS=org.apache.spark.deploy.SparkSubmit%SPARK_HOME%\bin\spark-class2.cmd%CLASS%--class"com.sel2in.TstFac"--masterlocal[4]target\scala-2.11\theApp_2.11-1.0.jar在spark-class2.cmd中要添加远程调试选项:setJOPTS=setJOPTS=-agentlib:jdwp=transport=dt_socket,server=y,address=80

windows - Windows 批处理脚本起始行中的双引号

我已经查看了已经提供的答案,但我仍然卡住了。这是我目前拥有的:start"""C:\ProgramFiles(x86)\Spark\Spark.exe"echoSparkstarted这很好用。但是现在我要给客户端传参数,必须用引号括起来。我可以在命令行上执行以下操作:"C:\ProgramFiles(x86)\Spark\Spark.exe""user=%USERNAME%&server=example.org"它启动时会填写用户和服务器字段。但是当我尝试编辑批处理脚本以添加那些引号包裹的参数时,我会收到各种错误,具体取决于我尝试添加双引号的方式和位置等。那么如何将引号包裹的参数添加

windows - Spark WindowedApplication,监听keyUp事件

我有一个WindowedApplication,我需要监视keyUp以便我可以在按下转义键时关闭应用程序。但是,我的代码不起作用:似乎这个事件根本没有触发,我什至试图覆盖keyUpHandler并追踪一些信息,但没有。 最佳答案 我找到了thissimilarquestion在Adob​​e论坛上,它帮助解决了问题。我通过监听applicationComplete然后在处理程序中将keyUp监听器附加到stage来解决。 关于windows-SparkWindowedApplicatio

java - 无法在 Windows 10 上设置 Apache Spark 2.1.1

我已经在Windows10上安装了ApacheSpark2.1.1,Java1.8和Python版本3.6Anaconda4.3.1。我还下载了JAVA_HOME、HADOOP_HOME和SPARK_HOME的winutils.exe和设置环境变量,并更新了路径变量。我还运行了winutils.exechmod-R777\tmp\hive。但是在cmd提示符下运行pyspark时出现以下错误。请有人帮忙,如果我遗漏了任何重要细节,请告诉我提前致谢!c:\Spark>bin\pysparkPython3.6.0|Anaconda4.3.1(64-bit)|(default,Dec2320

windows - win7 pyspark sql 实用程序 IllegalArgumentException

我正在尝试在pycharm上运行pyspark。我已经连接了所有东西并设置了环境变量。我可以读取sc.textFile,但是当我尝试从pyspark.sql读取csv文件时,出现了错误。代码如下:importosimportsysfrompysparkimportSparkContextfrompysparkimportSparkConffrompyspark.sqlimportSQLContextfrompyspark.sqlimportSparkSession#Pathforsparksourcefolderos.environ['SPARK_HOME']="E:/spark-2.

windows - winutils spark windows 安装 env_variable

我正在尝试在Windows10上安装Spark1.6.1,到目前为止我已经完成了以下操作......下载spark1.6.1,解压到某个目录,然后设置SPARK_HOME下载scala2.11.8,解压到某个目录,然后设置SCALA_HOME设置_JAVA_OPTION环境变量从https://github.com/steveloughran/winutils.git下载了winutils只需下载zip目录,然后设置HADOOP_HOME环境变量。(不确定这是否不正确,因为权限被拒绝,我无法克隆该目录)。当我回到sparkhome并运行bin\spark-shell时,我得到了'C:\

Spark 下载安装配置详解文档 (spark-2.4.8-bin-hadoop2.7.tgz)

下载安装配置spark:官网地址:https://archive.apache.org/dist/spark/上传spark-2.4.8-bin-hadoop2.7.tgz 解压tar-zxvfspark-2.4.8-bin-hadoop2.7.tgz-C/opt/moudel/重命名mvspark-2.4.8-bin-hadoop2.7spark-2.4.8配置环境变量vim/etc/profile#SPARK_HOMEexportSPARK_HOME=/opt/moudel/spark-2.4.8exportPATH=$PATH:$SPARK_HOME/bin执行source/etc/pr

windows - 带有 Hadoop 发行版的 Apache Spark 无法在 Windows 上运行

我尝试使用Cygwin在Windows上运行spark-1.5.1-bin-hadoop2.6发行版(以及具有相同结果的较新版本的Spark)。尝试在bin文件夹中执行spark-shell脚本时,我得到以下输出:错误:无法找到或加载主类org.apache.spark.launcher.Main我尝试将CLASSPATH设置为lib/spark-assembly-1.5.1-hadoop2.6.0.jar的位置,但无济于事。(仅供引用:我可以在我的MAC上运行相同的发行版,无需额外的设置步骤)请协助寻找在Windows上执行Cygwin的解决方案。 最佳答

python - 如何将 spark 与 python 或 jupyter 笔记本一起使用

我正在尝试在python中处理12GB的数据,我迫切需要使用Spark,但我想我太愚蠢了,不能自己使用命令行或使用互联网,这就是为什么我想我必须转向SO,所以到目前为止,我已经下载了spark并解压缩了tar文件或其他任何东西(对语言感到抱歉,但我觉得自己很愚蠢而且出局)但现在我无处可去。我在spark网站文档中看到了说明,上面写着:Spark还提供了一个PythonAPI。要在Python解释器中以交互方式运行Spark,请使用bin/pyspark但在哪里执行此操作?请帮忙。编辑:我正在使用Windows10注意::我在尝试安装某些东西时总是遇到问题,主要是因为我似乎无法理解命令提