jjzjj

ubuntu - Dockerfile 连接到 ODBC(例如 HPE Vertica)设置

我有一个简单的GO程序可以成功连接到我的ubuntu服务器中的Vertica。我已经在这个ubuntu中设置了.dobc.ini和odbcdrvier。db,err:=sql.Open("odbc","DSN=HPVerticaDSN")iferr!=nil{log.Fatal(err)}log.Println("DBpingstarted...")iferr=db.Ping();err!=nil{log.Fatalf("DBpingfailedwitherror...%v",err)}log.Println("DBconnected.")deferdb.Close()现在,我如何设置

hadoop - vertica jar

我正在尝试将数据从Vertica传输到Hive。根据手册,应将以下设置为输入格式:-inputformatcom.vertica.hadoop.deprecated.VerticaStreamingInput但是hadoop-verticajar有org.apache.hadoop.vertica.VerticaStreamingInput类而不是上面的类。所以它抛出以下异常:Exceptioninthread"main"java.lang.RuntimeException:classorg.apache.hadoop.vertica.VerticaStreamingInputnoto

hadoop - Vertica:输入记录 1 已被拒绝(找到的列太少)

我正在尝试将文件从Hadoop复制到Vertica表,但出现错误。问题是相同的副本有时通过有时失败,知道吗?错误:Causedby:java.sql.SQLException:[Vertica]VJDBCERROR:COPY:Inputrecord1hasbeenrejected(Toofewcolumnsfound)atcom.vertica.util.ServerErrorData.buildException(UnknownSource)atcom.vertica.dataengine.VResultSet.fetchChunk(UnknownSource)atcom.verti

database - 将数据从 HDFS 加载到 Vertica

从HDFS加载数据到vertica时出现以下错误我只是停止了以前工作的数据库并在Vertica中创建了新数据库。然后我跑了vsql-f[AggregateFunctions.sql,AnalyticFunctions.sql,FilterFunctions.sql,JavaFunctions.sql,JavaUDLFunctions.sql,ParserFunctions.sql,SourceFunctions.sql,TransformFunctions.sql]当我尝试使用以下命令从HDFS加载数据时COPYexploded001SOURCEHdfs(url='http://had

hadoop - 从vertica导入数据到hive

我尝试使用Sqoop将数据从Vertica上传到Hive。我可以看到它在HIVE上创建了一个文件和一个表,但是当我尝试从HIVE或文件中选择数据时,我看不到数据。它向我显示错误(文件列上没有分隔符)选择。这是我的代码:sqoopimport-m-1--drivercom.vertica.jdbc.Driver--connect"jdbc:vertica://serverName:5443/DBName"--username"user"--password"pass"--query'selectid,namefromcontactslimit10'--target-dir"folder/

hadoop - 将vertica数据导入sqoop

我正在将vertica数据注入(inject)mapr集群上的sqoop1。我使用以下查询:sqoopimport-m1--drivercom.vertica.jdbc.Driver--connect"jdbc:vertica://*******:5433/db_name"--password"password"--username"username"--table"schemaName.tableName"--columns"id"--target-dir"/t"--verbose这个查询给我一个错误Causedby:com.vertica.util.ServerException:

hadoop - Sqoop 导出作业的 sqoop.export.records.per.statement 是否有限制?

有谁知道Sqoop批量导出作业的sqoop.export.records.per.statement的值是否有限制?我有非常大的数据,例如200,000,000行数据要从Impala导出到Vertica。我将得到[Vertica][VJDBC](5065)ERROR:ToomanyROScontainersexistforthefollowingprojections如果recordsperstatement设置得太低,或者java.lang.OutOfMemoryError:GC如果每个语句的记录数设置得太高,则超出开销限制。有人知道如何解决这个问题吗?谢谢!

hadoop - 为 HCatalog 配置 HP Vertica 时找不到 hcatUtil

我正在尝试为HCatalog配置HPVertica:ConfiguringHPVerticaforHCatalog但是我在我的Vertica集群上找不到hcatUtil。我在哪里可以获得这个实用程序? 最佳答案 作为thisanswer说,它在/opt/vertica/packages/hcat/tools中,从版本7.1.1开始。但您可能需要一些进一步的信息:您需要在您的Hadoop集群中的一个节点上运行hcatUtil;该实用程序收集了Vertica也需要访问的Hadoop库,因此您需要让这些库可用。假设您没有将Vertica节

hadoop - [Vertica][VJDBC](100172) 一行或多行被服务器拒绝

使用Sqoop将数据从Impala加载到Vertica时出现以下错误。Error:java.io.IOException:Can'texportdata,pleasecheckfailedmaptasklogsatorg.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:112)atorg.apache.sqoop.mapreduce.TextExportMapper.map(TextExportMapper.java:39)atorg.apache.hadoop.mapreduce.Mapper.run

hadoop - 通过 Vertica 查询 Parquet 数据(Vertica Hadoop Integration)

所以我有一个包含三个节点的Hadoop集群。Vertica位于集群上。HDFS上有Parquet文件(由Hive分区)。我的目标是使用Vertica查询这些文件。现在我所做的是使用HDFS连接器,基本上是在Vertica中创建一个外部表,然后将其链接到HDFS:CREATEEXTERNALTABLEtableName(columns)ASCOPYFROM"hdfs://hostname/...../data"PARQUET;由于数据量很大。这种方法不会获得良好的性能。我做了一些研究,VerticaHadoopIntegration我已经尝试过HCatalog,但我的Hadoop上存在一