jjzjj

HCatalog

全部标签

Hadoop:ClassNotFoundException - org.apache.hcatalog.rcfile.RCFileMapReduceOutputFormat

当我为类org.apache.hcatalog.rcfile.RCFileMapReduceOutputFormat运行作业时,我遇到了ClassNotFoundException。我尝试使用-libjars传递额外的jar文件,但我仍然面临同样的问题。任何建议都会有很大帮助。提前致谢。下面是我正在使用的命令和我面临的异常!hadoopjarMyJob.jarMyDriver-libjarshcatalog-core-0.5.0-cdh4.4.0.jarinputDirOutputDirExceptioninthread"main"java.lang.NoClassDefFoundEr

hadoop - Hive 真的使用 HCatalog 吗?

我在网络上看到一些关于Hive是否使用HCatalog访问Metastore的相互矛盾的帖子,我希望有人能帮我解决这个问题?Hive是否使用实际的HCatalogapi来访问Metastore,或者它是否有自己的元数据检索机制,HCatalog是否仅由非Hive工具用于访问元数据? 最佳答案 不,hive不使用HcatalogApi访问Metastore。HCatalog向其他mapreduce工具开放hive元数据。每个mapreduce工具都有自己关于HDFS数据的概念(例如Pig将HDFS数据视为文件集,Hive将其视为表)。

hadoop - Sqoop 从 Hcatalog 导出到具有不同 col 名称的 MySQL assign

现在我的配置单元表包含列-id,name和MySQL表-number,id,name我想将id(fromhive)映射到number(frommysql),将name(fromhive)映射到id(来自mysql)。我使用命令:sqoopexport--hcatalog-database--hcatalog-table--columns"number,id"\--connectjdbc:mysql://db...:3306/test\--username--password--table然而,它并没有奏效。像这种情况一样的相同场景可以很好地工作[1]。将hive表定位到hdfs上,使用

apache - 如何构建 apache HCatalog 0.5.0?

已经将近3个小时了,我无法构建它。请任何人提供步骤。所有文档都建议使用hcatalog-src-0.5.0-incuvating.tar.gz但这在互联网上的任何地方都不可用(据我搜索)。然后我下载了分支0.5.0但根据文档http://docs.hortonworks.com/HDPDocuments/HDP1/HDP-1.2.0/ds_HCatalog/install.pdf0.5.0版本你必须构建l=usingcommandant_home/bin/ant-Dhcatalog.version=0.5.0-Dforrest.home=forrest_hometar现在的问题是bui

hadoop - hadoop集群中HCatalog/Hive建表不导入数据到/app/hive/warehouse文件夹

我在AmazonEC2(3个数据节点+1个名称节点+1个辅助名称节点)中设置的hadoop集群(HDP2.2)中遇到了一个非常奇怪的问题。Hue服务器在主名称节点上运行,Hive服务器在辅助名称节点上运行。我使用HueWeb界面在HCatalog中使用加载到HDFS中的CSV文件创建表“mytable”。建表成功返回,没有报错。该表已创建并显示在HueWeb界面中。但是,当我尝试查询该表时,它返回了0条记录。我去了/app/hive/warehouse文件夹,我可以看到创建了表文件夹“mytable”,但从未将CSV文件复制到该文件夹​​中。我使用配置单元shell重现了相同的行为。如

hadoop - 使用 hcatalog 的 Sqoop 增量导出?

有没有办法使用sqoop进行增量导出?我正在为sqoop使用Hcatalog集成。我尝试使用用于增量导入的--last-value、--check-column选项,但sqoop给我错误提示这些选项无效。 最佳答案 我还没有看到增量sqoop导出参数。您可以尝试的另一种方法是在配置单元中创建一个contol_table,您可以在其中记录每次上次导出时的表名和时间戳。createtableifnotexistscontrol_table(table_namestring,export_datetimestamp);insertinto

hadoop - Pig 脚本使用 HCatalog 标志?

我编写了简单的pig脚本来从配置单元表中读取数据。A=LOAD'default.movie'USINGorg.apache.hive.hcatalog.pig.HCatLoader();DUMPA;当我运行huepig用户界面时,它正在运行。但是它使用了一个标志useHCatalog。当我使用命令行使用相同的标志运行它时,它正在工作pig-useHCatalogsample.pig但是我如何通过在pig脚本中提供所需的jar文件和配置来在没有此标志的情况下运行。我试过了。但是没用REGISTER/usr/lib/hive/lib/*.jarREGISTER/usr/lib/hive-h

hadoop - Spark 和 HCatalog?

我觉得使用Pig加载HCatalog很舒服,并且想知道是否可以使用Spark代替Pig。不幸的是,我对Spark还很陌生……你能提供任何关于如何开始的Material吗?是否有任何Spark库可供使用?有什么例子吗?我在http://spark.apache.org/上做了所有练习但他们专注于RDD并且不再进一步..如有任何帮助,我将不胜感激...问候帕维尔 最佳答案 您可以使用sparkSQL从Hive表而不是HCatalog中读取数据。https://spark.apache.org/sql/您可以使用SparkJava/Sca

oracle - 在 Sqoop 中使用 HCatalog 时,hive-drop-import-delims 不删除换行符

Sqoop在与HCatalog导入一起使用时无法从列数据中删除新行(\n),即使在使用Oracle运行ApacheSqoop时在命令中使用--hive-drop-import-delims选项也是如此。Sqoop查询:sqoopimport--connectjdbc:oracle:thin:@ORA_IP:ORA_PORT:ORA_SID\--usernameuser123--passwordpasswd123-tableSCHEMA.TBL_2\--hcatalog-tabletbl2--hcatalog-databasetestdb--num-mappers1\--split-by

hadoop - hadoop中的hcatalog有什么用?

我是Hadoop新手。我知道HCatalog是Hadoop的表和存储管理层。但它究竟是如何工作的以及如何使用它。请举一些简单的例子。 最佳答案 简而言之,HCatalog向其他mapreduce工具开放了hive元数据。每个mapreduce工具都有自己关于HDFS数据的概念(例如Pig将HDFS数据视为文件集,Hive将其视为表)。通过基于表的抽象,HCatalog支持的mapreduce工具无需关心数据的存储位置、格式和存储位置(HBase或HDFS)。如果您沿着Hcatalog配置webhcat,我们确实可以使用WebHcat