jjzjj

Streaming

全部标签

java - HashMap 作为 Spark Streaming 中的广播变量?

我有一些数据需要在sparkstreaming中分类。分类键值在程序开始时加载到HashMap中。因此,每个传入的数据包都需要与这些key进行比较并进行相应标记。我意识到spark有称为广播变量和累加器的变量来分发对象。教程中的示例使用简单的变量,例如etc。如何使用HashMap在所有sparkworker上共享我的HashMap。或者,是否有更好的方法来执行此操作?我正在用Java编写我的SparkStreaming应用程序。 最佳答案 在spark中,您可以用相同的方式广播任何可序列化的对象。这是最好的方法,因为您只需将数据发

java - 在 Java 中实现素数查找算法的最佳方法是什么?我们如何创建库类然后在 Java 中使用?

我想用Java创建库类并在我future的程序中使用它们。我希望这些库类能够找到不超过某个数甚至下一个素数的素数,或者你可以说解决与素数相关的大部分基本问题。我从未创建过Java库类。我的目标是学习这样做。请通过指出教程或其他内容来帮助我。我熟悉netbeansIDE。我发现了一些算法,比如SieveofEratosthenes和SieveofAtkin.如果您能指出一些更有效的算法,那就太好了。我不希望他们成为最好的,但至少足够好。我的目标是通过实现它们来学习一些东西。因为我没有什么实际的编码经验,所以我想通过它来提高我的技能。我的friend建议我使用Stream类,他正在谈论通过

java - 避免 "cannot retry due to server authentication, in streaming mode"错误,不涉及任何 CXF

我已经在很多地方搜索过处理过这个HttpRetryException问题的其他人,但我发现的所有人都遇到过一些名为CXF的apache服务,我没有使用它。我使用的是java.net.HttpURLConnection。我创建一个连接,将setRequestProperty用于“授权”,获取输出流,写入一堆字节,然后尝试读取回复输入流。大多数时候这都有效,但有时我会遇到上述异常。我无法避免流式传输,因为有时我需要写入比内存中所能存储的更大的文件,而且无论如何,我发现的大多数搜索结果都表明这不是真正的问题。他们通常按照bindingProvider.getRequestContext().

'streaming'视频文件的Java HTTP进程

我正在创建一个Java应用程序,它通过http将视频文件“流式传输”到浏览器(当前为Chromev24.x)。此视频被发送到FFmpeg,其输出通过HTTP发送。现在,一旦文件被完全编码,文件就会使用分块传输提供服务,并响应范围请求。标题示例:请求GET/file/9fe6b502-c127-47c2-b6d2-83ea58676a8dHTTP/1.1:Host:localhost:1234:Connection:keep-alive:Accept-Encoding:identity;q=1,*;q=0:User-Agent:Mozilla/5.0(Macintosh;IntelMac

java - 使用 Play Framework 和第三方 API 流式传输大文件

我正在编写一个play2应用程序,但我正在努力解决文件流问题。我使用具有以下签名的方法使用第三方API检索我的文件:FileMetadatagetFile(OutputStreamdestination,StringfileId)在传统的Servlet应用程序中,如果我想将内容发送到我的客户端,我会这样做:HttpServletResponseresp;myService.getFile(resp.getOutpuStream,fileId);我的问题是,在我的play2Controller类中,我无法访问底层的OuputStream,因此我的Controller方法的最简单实现是:p

java - Spark Streaming 历史状态

我正在构建用于检测欺诈ATM卡交易的实时处理。为了有效地检测欺诈,逻辑需要卡的最后交易日期,每天(或最近24小时)的交易金额总和其中一个用例是,如果在该国家/地区的最后一次交易超过30天后在本国境外进行的卡交易,则发送可能存在欺诈的警报因此尝试将Spark流式处理视为一种解决方案。为了实现这一点(可能我缺少关于函数式编程的想法)下面是我的伪代码stream=ssc.receiverStream()//inputreceivers1=stream.mapToPair()//createskeywithcardandtransactiondateasvalues2=stream.reduc

java - 将客户端 REQUEST_ENTITY_PROCESSING 设置为 CHUNKED 我丢失了文件

我有一个在Jetty上运行的REST网络服务。我想编写一个Java客户端,它使用相同的Web连接将大量文档分块到该其余服务。我能够在这里建立一个基于迭代器的流方法:SendingastreamofdocumentstoaJersey@POSTendpoint这不起作用,除非您设置clientConfig.property(ClientProperties.REQUEST_ENTITY_PROCESSING,RequestEntityProcessing.CHUNKED);,因为Content-length未知。虽然有些工作,但分块传输似乎丢失了一些文档。例如:num_docs50000

java - Streaming 的多项操作能否打破 Demeter 法则?

我有点想用Java8流编写Selenium页面对象,如下面的代码所述,并收到评论说我的代码违反了Demeter法则,因为我在一行中执行了很多操作。我被建议将代码分解为第一个流以收集列表并运行另一个流操作来进行匹配(简而言之,根据需要将其分解为多个流)。我不相信,因为引入Stream是为了处理数据处理,如果我们将它分解成多个流,那么使用流就没有意义了。之前我曾在一个网络安全项目中工作,其中数百万条记录通过流式处理和多个逻辑操作对数据进行排序。请分享您的想法,我已按照审阅者的建议对其进行了更改,但他无法解释原因,我想了解有关流的更多信息以及利用Java8的这一强大新增功能的正确方法。示例代

java - 如何使用 commons file upload streaming api 上传文件

我正在按照公共(public)文件上传站点中提供的有关流式API的示例进行操作。我试图弄清楚如何获取上传文件的文件扩展名,如何将文件写入目录,最糟糕的部分是编写示例注释的人//Processtheinputstream...这让我想知道它是否是如此微不足道以至于我是唯一一个不知道如何做的人。 最佳答案 在您的HTML文件中使用它:并且在UploadControllerservlet中,在doPost方法内:booleanisMultipart=ServletFileUpload.isMultipartContent(request)

Spark四:Spark Streaming和Structured Streaming

简介SparkStreaming整体流程和DStream介绍StructuredStreaming发展历史和Dataflow模型介绍SparkStreaming是一个基于SparkCore之上的实时计算框架,从很多数据源消费数据并对数据进行实时的处理,具有高吞吐量和容错能力强等特点。SparkStreaming的特点易用:可以像编写离线批处理一样编写流式程序,支持java/scala/python容错:在没有额外代码和配置的情况下可以恢复丢失的工作易整合到Spark体系:流式处理与批处理和交互式查询相结合学习资料:https://mp.weixin.qq.com/s/caCk3mM5iXy0F