jjzjj

hadoop - AVG 分组数据抛出错误 1046 :Use an Explicit Cast

我在一个txt文件中有一个MAP数据:[age#27,height#5.8][age#25,height#5.3][age#27,height#5.10][age#25,height#5.1]我想显示每个年龄组的平均高度。这是LAOD语句:records=LOAD'~/Documents/Pig_Map.txt'AS(details:map[]);records:{details:map[]}然后我根据年龄对数据进行分组:group_data=GROUPrecordsBYdetails#'age';group_data:{group:bytearray,records:{(detail

hadoop - pig : Unable to Load BAG

我有一个这种格式的记录:{(LarryPage),23,M}{(SumanDey),22,M}{(PalaniPratap),25,M}我正在尝试使用此LOAD记录:records=LOAD'~/Documents/PigBag.txt'AS(details:BAG{name:tuple(fullname:chararray),age:int,gender:chararray});但是我收到了这个错误:2015-02-0420:09:41,556[main]ERRORorg.apache.pig.tools.grunt.Grunt-ERROR1200:mismatchedinput',

hadoop - 社交媒体数据如何成为非结构化数据?

我最近开始阅读大数据,以及如何使用hadoop或BigInsights等工具来管理结构化和非结构化数据。社交媒体分析可以在BigInsights上完成,它获取非结构化数据并相应地对其进行分析/构建。这让我想知道,社交媒体数据是如何非结构化的?例如,您可以使用TwitterRESTAPI调用您在推文上收到的信息,并以结构化的JSON格式返回给您。那么社交媒体数据不是已经结构化了吗?如果是这样,为什么您需要一个主要管理非结构化数据的平台? 最佳答案 有些人也做出“半结构化”的区分。但重点是查询数据的能力。是的,推文等通常有一些结构。但它

hadoop - 如何将事件拆分为多个事件以将它们发送到多路复用扇出流

我们计划使用kafkaflume-ng集成(Flafka),其中flume是kafka队列的消费者。Flume代理将接收文件列表命令及其输出,如下所示:root@host>[Command1][Output1]root@host>[Command2][Output2]该文件可能包含多个命令,并且一个命令的输出可能很大。我们需要拦截事件(也就是文件数据),根据命令将事件拆分成多个事件。然后源会将流扇出到多个channel,将每个子事件发送到一个channel(使用多路复用),每个接收器将命令信息存储到各自的Hive表。是否可以使用扇出流将一个事件拆分为多个事件?或者换句话说,我们可以在拦

hadoop - 执行查询时hadoop如何处理ram?

在像mysql这样的关系数据库模型中,当用户向数据库发送查询时,如“SELECTmessage.message_idFROMmessage”,整个​​表'message'加载到RAM中。当表非常大并且服务器没有足够的内存时,mysql崩溃。抱歉我的问题。我不知道如何描述我的问题。我在大学的数据库类(class)要求搜索有关hadoop如何处理表以及查询发送到数据库并且hadoop尝试执行查询时的查询 最佳答案 由于这是家庭作业,我不会完全回答您的问题,但我会为您指明正确的方向。在传统的关系数据库(MySQL、PostgreSQL、S

csv - 使用 pig 过滤 CSV 列

嗨,stackoverflow社区;我是pig的新手,我有一个CSV文件,其中包含5列标题,如下所示:专栏1|专栏2|专栏3|专栏4|column5测试1012|测试2045|测试3250|测试4865|test5110测试1245|测试2047|测试3456|测试4234|测试5221…………我只想对第1、3和4列进行排序,但我不知道如何按列标题进行过滤。如果您能指出可以完成我想做的事情的正确功能,那就太好了。谢谢! 最佳答案 假设您像下面这样加载它(假设它使用逗号作为分隔符),那么您可以只使用ORDERBY功能。myInput=

java - 如何将 Hadoop MapReduce 作业限制在一定数量的节点上?

所以,基本上我有一个包含4个数据节点的系统。但是,为了检查我的hadoop应用程序的可伸缩性,我想用1、2和4个节点对其进行测试。那么,如何将hadoop使用的节点数限制为1或2个。我使用的是hadoop2.5.1,我没有系统的管理员权限。此外,如何控制hadoop用于节点的内核数? 最佳答案 您需要管理员权限才能执行所有操作如何将hadoop使用的节点数限制为1或2个。Decommission2-3个节点如何控制hadoop为节点使用的内核数在yarn-site.xml中设置以下配置,为每个节点分配8个vcoreyarn.node

java - hdfs 文件在伪分布式单节点集群中的位置?

我以伪分布式模式在单个节点上安装了hadoop。dfs.replication值为1,hdfs中的文件默认存放在哪里?我使用的hadoop版本是2.5.1。 最佳答案 dfs.datanode.data.dir:确定DFS数据节点应在本地文件系统中存储其block的位置。如果这是一个逗号分隔的目录列表,那么数据将存储在所有命名的目录中,通常在不同的设备上。不存在的目录将被忽略。此属性的默认值为:file://${hadoop.tmp.dir}/dfs/data您可以在core-site.xml文件中配置${hadoop.tmp.di

hadoop - hadoop 上的 Hbase 未在分布式模式下连接

您好,我正在尝试在HADOOP(hadoop-2.7.0)上设置HBASE(hbase-0.98.12-hadoop2)Hadoop在localhost:560070上运行,运行良好。我的hbase-site.xml如下所示hbase.rootdirhdfs://localhost:9000/hbasehbase.cluster.distributedtruehbase.zookeeper.quorumlocalhostdfs.replication1-->hbase.zookeeper.property.clientPort2181当我启动./start-hbase.sh时,我在日志

Hadoop 复制因子

这个问题在这里已经有了答案:Hadoopdfsreplicate(4个答案)关闭7年前。我已经使用hadoop一段时间了。当我配置hadoop时,我通过名为dfs.replication的属性来了。但我无法弄清楚它是如何工作的。请帮助我。