jjzjj

warehouse

全部标签

sql - 将xml转换成表格

我需要将一个oracle表转换为xml,然后将其返回为表形式。我使用xmlgen转换了一个表,但我不知道如何反转转换。我正在寻找将xml文件转换为表格的示例。 最佳答案 您可以使用XMLTABLE语法在xml表上创建关系View。例如SELECTwarehouse_namewarehouse,warehouse2."Water",warehouse2."Rail"FROMwarehouses,XMLTABLE('/Warehouse'PASSINGwarehouses.warehouse_specCOLUMNS"Water"varc

改变hive的端口8020到9000。(SemanticException Unable to determine if hdfs://node1:8020/user/hive/warehouse)

文章目录问题:SemanticExceptionUnabletodetermineifhdfs://node1:8020/user/hive/warehouse/t_scoreisencrypted:org.apache.hadoop.hive.ql.metadata.HiveException:java.net.ConnectException:CallFromnode1/192.168.88.151tonode1:8020failedonconnectionexception:java.net.ConnectException:拒绝连接;Formoredetailssee:http://w

hadoop - hdfs 和 hive 有什么关系?

我有psudeo分布式hadoop环境,使用sqoop和hive进行数据导入和分析。我使用sqoop将数据从mysql导入到hive并且它工作正常,我在我的hive位置获取了数据,即/user/hive/warehouse/我可以看到hive中的数据表。我的疑问是:当我从mysql导入到hive(构建在hadoop之上)时,数据会存储在hadoop中吗?为什么它在我的hdfs中创建/user/hive/warehouse?Hive如何处理数据?如果我在mysql中更新数据,我可以使用sqoop增量导入来更新hdfs中的数据,但如果我直接使用hive导入,它将反射(reflect)在hi

hadoop - Hive 不在 HDFS 中存储仓库

我已经在我的本地系统上下载了hive安装并将hive-site.xml复制到Sparkconf目录中。我尝试使用sparkshell在Hive上下文中创建一个托管表。我在hive-site.xml中放置了以下属性(存在于spark的conf目录中):hive.metastore.warehouse.dir/user/hive/warehouse此外,我已将HADOOP_HOME放入spark-env.sh中:exportHADOOP_CONF_DIR=/opt/hadoop/conf根据Hive文档,Hive仓库应该存储在HDFS中,但仓库存储在本地驱动器(/user/hive/war

scala - Spark-Scala HBase 表创建失败(MetaException(消息 :file:/user/hive/warehouse/src is not a directory or unable to create one)

我的VM中运行着hortonworks沙盒。我已经完成了所有的hive-site.xml配置并放置在Spark/conf文件中。我可以使用PySpark访问HBase并创建/更新表,但是当我在Scala中执行相同的实现时,会出现以下错误:FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.DDLTask.MetaException(message:file:/user/hive/warehouse/srcisnotadirectoryorunabletocreateone)我也更改了对“hive/war

scala - 用于 Spark 集成测试的 Hive 配置

我正在寻找一种方法来配置Hive以进行SparkSQL集成测试,以便将表写入临时目录或测试根目录下的某个位置。我的调查表明这需要同时设置fs.defaultFS和hive.metastore.warehouse.dir之前HiveContext被build。只需设置后者,如本answer中所述不适用于Spark1.6.1。valsqlc=newHiveContext(sparkContext)sqlc.setConf("hive.metastore.warehouse.dir",hiveWarehouseDir)表元数据位于正确的位置,但写入的文件位于/user/hive/wareho

hadoop - 删除配置单元分区的外部表但保留分区

使用外部配置单元表时,有没有一种方法可以删除目录中的数据,但通过查询保留分区。请注意我不想删除表并重新创建它。我只想清空底层文件夹并重新开始一个过程。我的表很大,按年、月、日和小时分区,手动重新创建分区需要很多时间。谢谢 最佳答案 truncatetable...删除所有数据。truncatetablepartition(...)删除特定分区的数据。保留目录结构。首先应该将外部表转换为管理表,例如altertabletsettblproperties('EXTERNAL'='FALSE');完成后,我们可以将其转换回来alterta

Hadoop hive : How to allow regular user continuously write data and create tables in warehouse directory?

我在单个节点上运行Hadoop2.2.0.2.0.6.0-101。我正在尝试运行JavaMRD程序,该程序在普通用户下从Eclipse将数据写入现有的Hive表。我得到异常:org.apache.hadoop.security.AccessControlException:Permissiondenied:user=dev,access=WRITE,inode="/apps/hive/warehouse/testids":hdfs:hdfs:drwxr-xr-x发生这种情况是因为普通用户对仓库目录没有写权限,只有hdfs用户有:drwxr-xr-x-hdfshdfs02014-03-0

hadoop - 如何配置Hive仓库路径?

我修改了这部分hive.metastore.warehouse.dir/user/hive/warehouselocationofdefaultdatabaseforthewarehousehive-default.xml.template我自己的路径。运行hive时,如果我尝试创建一个表,它说它可以创建file://mypath/etc..并且它仍在寻找/user/hive/warehouse。我做错什么了吗?我尝试创建hive-site.xml,但它似乎也不起作用。 最佳答案 修改hive-site.xml中的仓库路径如下:hi

hadoop - 为 parquet 文件生成元数据

我有一个构建在大量外部Parquet文件之上的配置单元表。Parquet文件应该由spark作业生成,但由于将元数据标志设置为false,它们没有生成。我想知道是否有可能以某种无痛的方式恢复它。文件结构如下:/apps/hive/warehouse/test_db.db/test_table/_SUCCESS/apps/hive/warehouse/test_db.db/test_table/_common_metadata/apps/hive/warehouse/test_db.db/test_table/_metadata/apps/hive/warehouse/test_db.d