jjzjj

PySpark3

全部标签

python - 在 hive 或 pyspark 中透视日志

我有很多这种格式的文件日志:[Windowsuser]Pâmela[Hostname]DV6000[Localtime]14:25:07[Systemtime]17:25:07[ASCWebBrowserinfo]1.1.1[LastWriteTime]07/19/201614:01[HDInfo]Volumename:,Serial:1713925408,FileSystem:NTFS,MaxComponentLength:255[NetworkInfo[Index]48[Type]1[Description]TAP-Win32AdapterOAS#6[Name]{343D77F2-

python - 在 Pyspark-Cluster 模式下的工作节点上安装外部库

我正在为NLP处理等开发pyspark。我正在使用TextBlobPython库。通常,在独立模式下,安装外部Python库很容易。在集群模式下,我面临着在工作节点上远程安装这些库的问题。我无法访问每台工作机器以在Python路径中安装这些库。我尝试使用Sparkcontextpyfiles选项传送.zip文件...但问题是这些Python包需要安装在工作机器上。是否有不同的方法可以使这个lib-Textblob在Python路径中可用? 最佳答案 ItriedtouseSparkcontextpyfilesoptiontoship

python - PySpark 读取不存在文件时的错误处理

我有大量目录和文件可供读取。然而,其中一些可能实际上并不存在,这不是问题-我会简单地忽略任何错误-使用try方法。有什么方法可以在PySpark中允许这样做。这是返回的错误信息:py4j.protocol.Py4JJavaError:Anerroroccurredwhilecallingz:org.apache.spark.api.python.PythonRDD.collectAndServe.:org.apache.hadoop.mapred.InvalidInputException:Inputpathdoesnotexist:file:我正在构建一系列文件以查看以下内容:scI

hadoop - 如何在资源有限的笔记本电脑上安装 pyspark 和 spark 以供学习?

我有一台配备6GBRAM的Windows7笔记本电脑。仅出于学习目的,在此笔记本电脑上安装pyspark和spark的RAM/资源效率最高的方法是什么。我不想处理实际的大数据,但小数据集是理想的,因为这通常只是为了学习pyspark和spark。我更喜欢最新版本的Spark。仅供引用:我没有安装hadoop。谢谢 最佳答案 你基本上有三个选择:从源代码构建一切安装Virtualbox并使用ClouderaQuickstart等预构建的VM安装Docker并找到合适的容器当您选择从源代码构建时,让一切都启动并运行可能会很痛苦。你必须安

python - PySpark - Hive 上下文不返回结果但 SQL 上下文返回类似查询

当我在PySpark中运行HiveContext和SQLContext进行比较查询时,我注意到性能存在巨大差异版本/配置Spark1.3.1(也尝试过Spark1.5.1)Hadoop2.6(在CDH5.4.0上)pyspark--masteryarn--num-executors5--executor-memory10g--driver-memory4g--driver-cores4表格信息database.table有超过2k个分区database.table在field1上分区(在where子句中使用)HIVE上下文实现frompyspark.sqlimportSQLContex

python - 来自 Hive 查询的持久 PySpark Dataframe

我正在从Hive表中获取一些数据:df=sqlContext.sql('selectshubiru,datefromthebigtablebtwherebt.num>10')df.show()#herethequeryisprocessedandtheresultsshown而且一切正常。现在我想对df进行操作,但是每次我对df进行操作时,它都会再次运行针对Hive的查询:importpyspark.sql.functionsasfuncfromdatetimeimportdatetimefrompyspark.sql.typesimportTimestampTypedt_udt=fu

apache-spark - 使用 spark-xml 从 pyspark 数据框中选择嵌套列

我正在尝试从PysparkDataframe中选择嵌套的ArrayType。我只想从此数据框中选择项目列。我不知道我在这里做错了什么。XML:ABCXYZ305,RamCHowkPuneINClothingBrand:CKSize:L6208数据框架构。root|--_orderid:string(nullable=true)|--items:struct(nullable=true)||--item:array(nullable=true)|||--element:struct(containsNull=true)||||--notes:struct(nullable=true)||

python-2.7 - Dataproc Pyspark 作业仅在一个节点上运行

我的问题是我的pyspark作业没有并行运行。代码和数据格式:我的PySpark看起来像这样(显然是经过简化的):classTheThing:def__init__(self,dInputData,lDataInstance):#...defdoes_the_thing(self):"""About0.01secondscalculationtimeperrow"""#...returnlProcessedData#containsinputdatapre-processedfromotherRDDs#donelikethisbecauseoneRDDcannotworkwithoth

python - PySpark:使用 newAPIHadoopFile 从多行记录文本文件中读取、映射和减少

我正在尝试解决一个类似于thispost的问题.我的原始数据是一个文本文件,其中包含多个传感器的值(观测值)。每个观察都带有时间戳,但传感器名称只给出一次,而不是在每一行中给出。但是一个文件中有多个传感器。TimeMHist::852-YF-0072016-05-1000:00:0002016-05-0923:59:0002016-05-0923:58:0002016-05-0923:57:0002016-05-0923:56:0002016-05-0923:55:0002016-05-0923:54:0002016-05-0923:53:0002016-05-0923:52:0002

python - PySpark 在 RDD 上运行多个函数

你好,我有示例代码:forcolumninposition:myData=dataSplit.map(lambdaarr:(arr[column]))\.map(lambdaline:line.split(','))\.map(lambdafields:("Column",fields[0]))\.map(lambda(column,value):value)\.filter(lambdaline:filterWithAccum(line))\.map(lambda(value):float(value))\.persist(StorageLevel.MEMORY_AND_DISK)r