jjzjj

hadoop - 如何使用 Spark 编写 avro 文件?

我有一个Array[Byte]代表一个avro模式。我正在尝试将它作为带有spark的avro文件写入Hdfs。这是代码:valvalues=messages.map(row=>(null,AvroUtils.decode(row._2,topic))).saveAsHadoopFile(outputPath,classOf[org.apache.hadoop.io.NullWritable],classOf[CrashPacket],classOf[AvroOutputFormat[SpecificRecordBase]])row._2是Array[Byte]我收到此错误:org.a

hadoop - 简单计数查询超出 Impala 内存限制

编辑:表中有一些损坏的AVRO文件。删除其中一些后,一切正常。我已经使用avro-tools将这些文件解压缩为json,并且解压缩的文件也不是很大。所以它似乎是Impala中处理损坏的AVRO文件的一些错误。我有一个Impala表,采用gzip压缩的AVRO格式,按“天”分区。当我执行查询时:从adhoc_data_fast.log中选择count(0)whereday='2017-04-05';它说:Query:selectcount(0)fromadhoc_data_fast.logwhereday='2017-04-05'Querysubmittedat:2017-04-0613

hadoop - 三个: Presto, hive和impala是否都支持Avro数据格式?

我很清楚Hive中可用的Serde来支持数据格式的Avro模式。熟悉将avro与hive结合使用。AvroSerDe比方说,我已经发现了这个问题。https://github.com/prestodb/presto/issues/5009我需要选择组件以实现快速执行周期。Presto和impala提供更短的执行周期。所以,任何人都请让我澄清一下在不同的数据格式中哪个更好。首先,我现在正在寻找Presto的avro支持。但是,让我们考虑以下存储在HDFS上的数据格式:Avro格式Parquet格式兽人格式哪个最适合用于不同数据格式的高性能。??请提出建议。 最

scala - 读取保存在 HBase 列中的 AVRO 结构

我是Spark和HBase的新手。我正在处理HBase表的备份。这些备份位于S3存储桶中。我正在使用newAPIHadoopFile通过spark(scala)阅读它们,如下所示:conf.set("io.serializations","org.apache.hadoop.io.serializer.WritableSerialization,org.apache.hadoop.hbase.mapreduce.ResultSerialization")valdata=sc.newAPIHadoopFile(path,classOf[SequenceFileInputFormat[Im

hadoop - Hive 上的 Avro 动态模式更改

我有一些数据采用avro格式v1并存储在分区dt=yyyymmdd下的HDFS中。现在数据在同一个分区下维护了两个版本,v1和v2。为两个不同的版本维护一个hive表是否可行? 最佳答案 Avrodefinesaschemaevolutionprotocol例如,如果v2只是添加了一个具有默认值的字段,然后使用该架构更新表,它可以读取全部旧数据,因为它会简单地返回默认值缺失的地方。如果你破坏了兼容性,你必须创建一个单独的表,然后将两者合并以获得一致的结果集 关于hadoop-Hive上的

hadoop - 动态模式的解决方案 - HIVE/AVRO

要求跟上目标ORC表的架构演变。我从源接收JSON事件。我们计划将它们转换为AVRO(因为它支持模式演化)。由于模式可以每天/每周更改,我们需要不断摄取新数据JSON文件,将它们转换为AVRO并将所有数据(旧/新)存储在ORC配置单元表中。我们如何解决这个问题? 最佳答案 您可以采用以下方法,这是解决此问题的众多不同方法之一。1。创建HBASE表首先读取AVRO数据并在HBASE中创建表。(您可以使用spark高效地完成此操作)即使在未来,HBASE表也会负责模式的演变。2。创建Hive包装表创建指向HBASE表的配置单元包装表(存

Hadoop自带的Serialization和AVRO序列化的关系?

我试图了解Avro并了解到它是Hadoop使用的数据序列化框架之一。在学习Hadoop的过程中,我了解到Hadoop使用的是自己的Serlization框架,而不是Java的Serialization,所以可以看到Hadoop中的Writable、WritableComparable。现在,经过AVRO之后,它说Avro被用作Serlization框架。因此我有点困惑。所以,当我们说Hadoop自己的序列化框架时,我们指的是Avro还是其他东西(它内置于“hadoop”本身)。谁能帮我理解一下? 最佳答案 Hadoop可写对象不是A

hadoop - 如何使用 kafka-connect-hdfs 将数据从 kafka avro 控制台流式传输到 HDFS?

我正在尝试运行kafka-connect-hdfs但没有成功。我已将以下行添加到.bash_profile并运行“source~/.bash_profile”exportLOG_DIR=~/logsquickstart-hdfs.properties配置文件为name=hdfs-sinkconnector.class=io.confluent.connect.hdfs.HdfsSinkConnectortasks.max=1hdfs.url=xxx.xxx.xxx.xxx:xxxx#placeholderflush.size=3hadoop.conf.dir=/etc/hadoop/c

hadoop - Apache pig 错误 org.apache.pig.backend.hadoop.executionengine.Launcher - 错误 : org. apache.avro.file.DataFileWriter$AppendWriteException:

我正在尝试加载一些数据,按特定字段过滤并将输出存储到HDFS。我的代码如下所示:data=LOAD'$inputPath'usingAvroStorage();data=FILTERdatabycondition;STOREdataINTO'$outputPath'usingAvroStorage('schema','$SCHEMA');但我收到一条错误消息:ERRORorg.apache.pig.backend.hadoop.executionengine.Launcher-Error:org.apache.avro.file.DataFileWriter$AppendWriteEx

java - apache avro 中的 mapred 和 mapreduce 包有什么区别?

我正在从事我的项目以整合apacheavro进入我的MapR程序。然而,我很困惑与ma​​pred相比,通过使用新的ma​​preduce包。latter详细说明如何使用在不同的情况下,新的信息较少。但是我知道的是,它们分别对应hadoop的新旧接口(interface)。有没有人有使用ma​​preduce接口(interface)的经验或例子对于输入为非Avro数据的作业(例如TextInputFormat)文件输出为avro文件。 最佳答案 这两个包代表相应的Hadoopmapred和mapreduceAPI的输入/输出格式、