jjzjj

MetaStore

全部标签

postgresql - Hive Metastore 配置 PostgreSQL

当我启动HiveMetastore服务时,我的命令行显示:“正在启动HiveMetastore服务器”,仅此而已。它实际上并没有启动服务器,也没有抛出任何错误消息hive:1.2.1哈多普:2.7.1Postgres:9.3.8hive站点.xmljavax.jdo.option.ConnectionURLjdbc:postgresql://localhost:5432/metastorejavax.jdo.option.ConnectionDriverNameorg.postgresql.Driverjavax.jdo.option.ConnectionUserNamehiveuse

hadoop - default.fs.name 和 hive.metastore.warehouse.dir 不冲突

嗨,当我尝试运行以下命令时LoaddataInpath'/data'intoTableTablename;在hiveshell中抛出以下错误Movefrom:hdfs://hadoopcluster/datato:file:/user/hive/warehouse/Tablenameisnotvalid.Pleasecheckthatvaluesforparams"default.fs.name"and"hive.metastore.warehouse.dir"donotconflict.我的default.fs.name属性在哪里fs.defaultFShdfs://hadoopcl

hadoop - 升级后连接到 Hive 中的 Metastore

我最近将我的Hive从v1.2更新到v2.1。现在,每次我登录时,它都会直接连接到默认的hivemetastore(metastore_db),而不是我的thriftmetastore端口(https://localhost:9083)以前每次登陆都是这样显示Logginginitializedusingconfigurationinjar:file:/opt/mapr/hive/hive-1.2/lib/hive-common-1.2.0-mapr-1609.jar!/hive-log4j.properties现在显示的是这样的Hive-on-MRisdeprecatedinHive

hadoop - derby 中的 hive metastore 与 hive/warehouse 中的 hive metastore 有什么区别?

这可能是一个非常基本的问题,所以请原谅我的无知。我知道hive将在开箱即用(hivetar.bin提取)vanilla设置中使用两个元存储。就我而言,我有配置单元0.14。derby数据库中有一个--在hdfs之外有一个名为metastore_db的默认文件夹名称。还有一个在/user/hive/warehouse的hdfs中。这两者有什么区别? 最佳答案 在Hive中,Metastore由(1)元存储服务和(2)数据库组成。MetastoreDB-是任何符合JDBC标准的RDBMS数据库,它在其中存储managedandexter

java - 从配置单元 Metastore 数据库中删除锁定文件

我在配置单元数据库中收到以下错误:Causedby:ERRORXSDB6:AnotherinstanceofDerbymayhavealreadybootedthedatabase/home/usr/metastore_db我听说我可以通过删除锁定文件来解决它-这有多安全?metastore_db文件夹中有一个db.lck文件,其中一行包含一些ID字符串。 最佳答案 是的,您可以删除那个lck文件。它只是为那个derby实例创建id。另请注意,如果您更改本地目录然后启动hive,您将看到另一个使用lck文件创建的metastore_

hadoop - 配置单元 2.3.3 MetaException(消息 :Version information not found in metastore.)

我有Hive2.3.3和Hadoop3.1.0。我可以在终端上使用hive命令启动Hive,但是当我尝试创建表时,我收到以下错误:user$hivereadlink:illegaloption--fusage:readlink[-n][file...]SLF4J:ClasspathcontainsmultipleSLF4Jbindings.SLF4J:Foundbindingin[jar:file:/Users/caiocesare/Desktop/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinde

hadoop - 使用 Kerberos 的 Hive 远程 Metastore

我是Hive的新手,正在尝试以相对安全的方式为测试环境设置它。我想使用远程元存储,以便MR作业可以访问数据库。我似乎几乎可以正常工作,但是当拥有凭据的用户尝试创建数据库时,我得到:hive>showdatabases;OKdefaulthive>createdatabasetestdb;FAILED:Errorinmetadata:MetaException(message:Gotexception:org.apache.hadoop.ipc.RemoteExceptionUser:hdfs/hadoopserver.sub.dom.com@SUB.DOM.COMisnotallowe

hadoop - 使用 derby 配置 Hive Metastore

在RedHat测试服务器中,我安装了hadoop2.7并运行了Hive、Pig和Spark,没有出现任何问题。但是当尝试从Spark访问Hive的元存储时,我遇到了错误所以我想到了放置hive-site.xml(提取后'apache-hive-1.2.1-bin.tar.gz'文件我只是按照教程将$HIVE_HOME添加到bashrc并且除了与Spark的集成之外一切正常)在apache站点中我发现我需要将hive-site。xml作为Metastore配置我创建了如下文件javax.jdo.option.ConnectionURLjdbc:derby://localhost:1527

java - Metastore db hive - 另一个实例已经在运行

我试图在linux服务器上运行hive,但我不断收到以下错误:Causedby:ERRORXSDB6:AnotherinstanceofDerbymayhavealreadybootedthedatabase/home/usr/metastore_db怎么了?我尝试这样做:psaux|grepspark-shellpsaux|grepmetastorepsaux|grepderby但没有显示任何进程。可能是什么原因? 最佳答案 我发现这种情况正在发生,因为有多个其他Spark-Shell实例已经在运行并且已经持有derbyDB,所以

java - 无法存储 Hive Metastore 服务器和 Hive shell

我用所有必需的属性更新了hive-site.xml,但我无法理解此错误发生的位置。如何将Metastore连接到HiveShell并启动Hive?在更新元存储属性之前,配置单元shell工作正常。谁能解决这个错误?[hadoop@hduserconf]$hive--servicemetastoreStartingHiveMetastoreServer17/01/0218:01:01WARNconf.HiveConf:HiveConfofnamehive.metastore.localdoesnotexistorg.apache.thrift.transport.TTransportEx