jjzjj

Streaming

全部标签

hadoop - Spark Streaming 可以选择特定文件吗

我的程序不断从hadoop文件夹(例如/hadoopPath/)读取流。它从上述文件夹中挑选所有文件。我可以只为这个文件夹拍摄特定的文件类型吗(比如:/hadoopPath/*.log)我还有一个与Spark和流相关的问题:Issparkstreamingworkswithboth"cp"and"mv" 最佳答案 几个小时以来,我一直在为同一个问题苦苦挣扎,虽然它看起来很简单,但我在网上找不到任何相关信息。最后,我找到了适合我的情况的解决方案。我把它放在这里是为了为遇到同样问题的其他人节省一些时间。假设您只想读取具有“path-to

hadoop - 使用 Spark Streaming 将非结构化数据持久化到 Hadoop

我有一个使用SparkStreaming创建的摄取管道,我想将RDD作为大型非结构化(JSONL)数据文件存储在hadoop中,以简化future的分析。将astream持久化到hadoop而不会产生大量小文件的最佳方法是什么?(因为hadoop不适合这些,而且它们使分析工作流程复杂化) 最佳答案 首先,我建议使用可以像Cassandra一样处理这种情况的持久层。但是,如果您对HDFS死心塌地,那么themailinglisthasanansweralready您可以使用FileUtil.copyMerge(来自hadoopfs)A

hadoop - 使用 Kafka 加载 HDFS 有哪些选项?

在当前技术领域,使用ApacheKafka加载HDFS的选项/解决方案有哪些?我在这里寻找Kafka消费者端的选项。还在寻找每天至少扩展到几TB的东西。我还有一些基本要求:a)HDFS的输出应该是分区的。b)Kafka上的记录可能不严格按时间顺序排列,但输出应该(尽可能)按时间顺序排列。c)在系统中断(网络分区、sw/hw崩溃等)的情况下可靠我浏览了StackOverflow,但许多问答都已过时。因此这个问题。 最佳答案 在ConfluentHDFSConnector之前,有一个名为Camus的产品,您仍然可以在LinkedInGi

python - Hadoop 流中损坏的 python 管道

我有一个大规模的日志处理问题,我必须在hadoop集群上运行。任务是将日志的每一行输入一个可执行的“cmd”,并检查结果以决定是否保留这行日志。由于“cmd”程序打开了一个非常大的字典,我无法为日志的每一行调用该程序。我想让它保持运行并向它提供所需的输入。我当前的解决方案使用python的子进程模块,代码如下:importsysfromsubprocessimportPopen,PIPEdefmain():pp=Popen('./bqc/bqc/bqc_tool./bqc/bqc/bqc_dict/./bqc/bqc/word_dict/flag',shell=True,stdin=P

hadoop - 是否有一个好的库可以帮助使用 Hadoop Streaming 和 Python 链接 MapReduce 作业?

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭去年。ImprovethisquestionThis问题回答了我的部分问题,但不完全。我如何运行管理它的脚本,它来self的本地文件系统吗?MrJob或Dumbo之类的东西究竟在哪里出现?还有其他选择吗?我正在尝试运行K-Means,其中每次迭代(MapReduce作业)输出将作为HadoopStreaming和Python下一次迭代的输入。我没有太多经验,任何信息都可以帮助我完成这项工作。谢谢!

java - 如何捆绑自定义 hadoop-streaming.jar

我正在尝试通过Yelp的EMRMrJob工具使用CombineFileInputFormat类。作业流是使用hadoop流创建的,MrJob的文档指出CombineFileInputFormat类必须捆绑在自定义的hadoop-streaming.jar中。有关上下文,请遵循此question.具体来说,我的问题是:具体类CombinedInputFormat.class应该在hadoop-streaming.jar中的什么地方被捆绑或引用?我尝试通过将CombinedInputFormat.class添加到目录org/apache/hadoop/streaming并执行来捆绑它:ja

hadoop - 是否有用于 hadoop 流的组合输入格式?

我有许多小的输入文件,我想使用一些输入格式(如CombineFileInputFormat)将它们组合起来以启动更少的映射器任务。我知道我可以使用JavaAPI来执行此操作,但我不知道在使用Hadoop流式处理时是否有流式处理jar库来支持此功能。 最佳答案 Hadoop流默认使用TextInputFormat,但可以使用任何其他输入格式,包括CombineFileInputFormat。您可以使用选项-inputformat从命令行更改输入格式。请务必使用旧API并实现org.apache.hadoop.mapred.lib.Co

java - 使用 -libjars 的 MapReduce 流作业,自定义分区程序失败 : "class not found"

我正在尝试将自定义(java)分区程序附加到我的MapReduce流作业。我正在使用这个命令:../bin/hadoopjar../contrib/streaming/hadoop-streaming-1.2.1.jar\-libjars./NumericPartitioner.jar-Dmapred.map.tasks=12-Dmapred.reduce.tasks=36\-input/input-output/output/keys-mapper"map_threeJoin.py"-reducer"keycount.py"\-partitionernewjoin.NumericPa

hadoop - Spark Streaming - HBase 批量加载

我目前正在使用Python将CSV数据批量加载到HBase表中,目前我在使用saveAsNewAPIHadoopFile编写适当的HFile时遇到了问题我的代码目前如下所示:defcsv_to_key_value(row):cols=row.split(",")result=((cols[0],[cols[0],"f1","c1",cols[1]]),(cols[0],[cols[0],"f2","c2",cols[2]]),(cols[0],[cols[0],"f3","c3",cols[3]]))returnresultdefbulk_load(rdd):conf={#Ommitt

scala - 使用 Spark Streaming 读取 fileStream

我在HDFS上有一个目录,其中每10分钟复制一个文件(现有文件被覆盖)。我想使用Spark流(1.6.0)读取文件的内容,并将其用作引用数据以将其加入其他流。我将“记住窗口”spark.streaming.fileStream.minRememberDuration设置为“600s”并设置newFilesOnly到false,因为当我启动应用程序时,我不想从已经存在的HDFS中获取初始数据。valssc=newStreamingContext(sparkConf,Seconds(2))defdefaultFilter(path:Path):Boolean=!path.getName()