jjzjj

hadoop - 带有 syslogs source 和 hbase sink 的 flum agent

我尝试将flume与syslogssource和hbasesink一起使用。当我运行flumeagent时出现此错误:Failedtostartagentbecausedependencieswerenotfoundinclasspath.错误如下。java.lang.NoClassDefFoundError:org/apache/hadoop/hbase/HBaseConfiguration,这意味着(来自question)缺少一些hbase库,要解决它我需要在flume-env.sh文件中设置这些lib的路径,即我所做的,并运行flume但这里仍然存在错误是我用来运行flumeag

android - "kitchen sink"在编程中的确切含义是什么?

我多次阅读“Kitchensink”这个词,主要是当我从github下载一些东西时,有一个名为“Kitchensink”的文件夹。但我不知道这个的确切含义。谁能解释一下厨房水槽是什么意思? 最佳答案 英文短语"Everythingbutthekitchensink"意思是“几乎任何人能想到的”。查看githubkitchensink的前8个Google结果,很明显,它通常用于展示API的所有(或几乎所有)功能的演示应用程序,通常供正在学习该平台的开发人员使用。以下是前5个结果的详细信息:Appceleratorkitchensink

java - maven-surefire-report-plugin 2.8 错误 : org. apache.maven.doxia.siterenderer.sink.SiteRendererSink.unknown

我的项目在mvnsite:site执行期间开始失败,因为我将maven-surefire-report-plugin更新到版本2.8,即releasedaweekorsoago.异常(exception)情况:[INFO]------------------------------------------------------------------------[ERROR]FATALERROR[INFO]------------------------------------------------------------------------[INFO]org.apache.m

iphone - 是否有随处可用的 iOS "kitchen sink"应用程序的源代码?

按照目前的情况,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visitthehelpcenter指导。关闭10年前。我正在学习iOS开发,非常想看一个示例应用程序,它显示了iOS中的大部分默认元素及其实现。大约一年前,我使用了一个javascript框架(Titanium),它有一个这样的例子,但我想知道是否存在一个用Objective-C编写为native应用程序的框架。

hadoop - 使用 cloudera quickstart 的 Flume Avro Sink Source

是否可以在Cloudera-Quickstart-CDH-VM中使用AvroSink/Source设置FlumeClient-Collector-Structure?我知道没有实际用途,但是我想了解Flume如何与Avro文件一起使用以及我以后如何将它们与PIG等一起使用。它尝试了几种配置,但没有一种有效。对我来说,我似乎需要多个代理,但虚拟机中只能有一个。我最后尝试的是:agent.sources=readeravro-collection-sourceagent.channels=memoryChannelmemoryChannel2agent.sinks=avro-forward

hadoop - Flume: kafka channel 和 hdfs sink get unable to deliver event 错误

我想尝试这个新的Flafka流程:只使用kafkachannel将数据传输到hdfssink。我从更容易监控的kafkachannel和记录器接收器中尝试了它。我的配置文件是:#Namethecomponentsonthisagenta1.sinks=sink1a1.channels=channel1a1.channels.channel1.type=org.apache.flume.channel.kafka.KafkaChannela1.channels.channel1.brokerList=localhost:9093,localhost:9094a1.channels.cha

hadoop - Flink bucketing sink 以保存点重启导致数据丢失

我正在使用Flinkbucketingsink从Kafka到HDFS。Flink的版本是1.4.2。我发现每次重新启Action业时都会丢失一些数据,即使有保存点也是如此。我发现如果我设置编写器SequenceFile.CompressionType.RECORD而不是SequenceFile.CompressionType.BLOCK就可以解决这个问题。看来Flink在保存checkpoint的时候,有效长度和实际长度不一样,应该包括压缩数据。但如果我们由于磁盘使用而无法使用CompressionType.BLOCK,则可能会出现问题。如何在重新启Action业时使用block压缩来

hadoop - Flume HDFS Sink Flush 和 Roll 的区别

我在Flume文档中遇到了HDFSSink的两个配置属性:hdfs.rollCountNumberofeventswrittentofilebeforeitrolled(0=neverrollbasedonnumberofevents)和hdfs.batchSizenumberofeventswrittentofilebeforeitisflushedtoHDFS我想知道这两个属性之间的区别,以及roll和flush的区别。在我看来它们看起来一样。 最佳答案 在HDFSSink中,roll表示关闭当前文件,将即将发生的事件写入新文件

excel - flume 加载 csv 文件优于 hdfs sink

我已将我的Flume源配置为Spooldir类型。我有很多CSV文件,.xl3和.xls,我希望我的Flume代理将所有文件从spooldir加载到HDFS接收器。但是flume代理返回异常这是我的水槽源配置:agent.sources.s1.type=spooldiragent.sources.s1.spoolDir=/my-directoryagent.sources.s1.basenameHeader=trueagent.sources.batchSize=10000和我的HDFS接收器:agent.sinks.sk1.type=hdfsagent.sinks.sk1.hdfs.

hadoop - 使用 Hive Sink 将水槽输出保存到 Hive 表

我正在尝试使用Hive配置flume,以将flume输出保存到HiveSink类型的hive表。我有单节点集群。我使用maprhadoop发行版。这是我的flume.confagent1.sources=source1agent1.channels=channel1agent1.sinks=sink1agent1.sources.source1.type=execagent1.sources.source1.command=cat/home/andrey/flume_test.dataagent1.sinks.sink1.type=hiveagent1.sinks.sink1.chan