jjzjj

Partition

全部标签

hadoop - Hive - 将数据插入分区表 : partition not found

我在尝试向Hive外部分区表中插入新数据时遇到问题。表是按天分区的,我得到的错误是:FAILED:SemanticException[Error10006]:Line1:51Partitionnotfound''18102016''我的查询如下:ALTERTABLEmy_source_tableRECOVERPARTITIONS;INSERTOVERWRITETABLEmy_dest_tablePARTITION(d='18102016')SELECT'III'ASprimary_alias_type,iii_idASprimary_alias_id,FROMmy_source_tab

java - 失败 : ParseException line 1:94 mismatched input 'hdfs' expecting StringLiteral near 'location' in partition location

Java代码:Stringcmd0="hive-e\"use"+hiveuser+";sethive.exec.compress.output=true;setmapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec;setmapreduce.job.queuename="+queue+";altertable"+"resident_tmp"+"addifnotexistspartition(weekday='"+"weekday=20170807"+"')location"+location+"\"";C

postgresql - Put 请求失败 : INSERT INTO "PARTITION_PARAMS" when executing an insert. .select 包含数百个字段的查询

在带有hive3的HortonworksHDP3集群上通过Tez执行插入..选择查询,我收到以下错误:java.sql.SQLException:Errorwhileprocessingstatement:FAILED:ExecutionError,returncode1fromorg.apache.hadoop.hive.ql.exec.MoveTask.MetaException(message:Putrequestfailed:INSERTINTO"PARTITION_PARAMS"("PARAM_VALUE","PART_ID","PARAM_KEY")VALUES(?,?,?

hadoop - 配置单元设置 hive.optimize.sort.dynamic.partition

我正在尝试插入具有动态分区的配置单元表。同一查询在过去几天一直运行良好,但现在出现以下错误。DiagnosticMessagesforthisTask:java.lang.RuntimeException:org.apache.hadoop.hive.ql.metadata.HiveException:HiveRuntimeError:Unabletodeserializereduceinputkeyfromx1x128x0x0x46x234x240x192x148x1x68x69x86x50x0x1x128x0x104x118x1x128x0x0x46x234x240x192x148

linux - Hadoop HDFS : DateNode directory on system partition?

我们用这种方式设置的Hadoop集群空间不足:1x1TBHDD/3个1.5TBHDD/data1/data2/data3系统分区几乎不用(97%空闲),不会用于与hadoop无关的任务。将系统分区作为HDFS数据目录添加到DataNode配置中是否安全?我担心Hadoop会填满分区并使系统无法使用。最好的方法可能是设置单独的lvm卷或重新分区磁盘。但我会避免走这条路。hadoop是否遵守unix配额?例如。如果我从系统分区添加一个目录并通过配额限制hadoop用户只能使用例如0.5TB会有帮助吗? 最佳答案 是的,Hadoop使用通

hadoop - Spark : Minimize task/partition size skew with textFile's minPartitions option?

我正在通过sc.textFile("/data/*/*/*")之类的方式将数万个文件读入rdd>一个问题是这些文件中的大多数都是微小的,而其他的则巨大。这会导致任务不平衡,从而导致各种众所周知的问题。我能否通过sc.textFile("/data/*/*/*",minPartitions=n_files*5)读取数据来拆分最大的分区,其中n_files是输入文件的个数吗?如约定elsewhere在stackoverflow上,minPartitions被传递到hadooprabithole,并在org.apache.hadoop.mapred.TextInputFormat.getSp

oracle - 使用 sqoop 将数据从 oracle 导入到 hive - 不能使用 --hive-partition-key

我有一个简单的表格:createtableosoba(idnumber,imievarchar2(100),nazwiskovarchar2(100),wiekinteger);insertintoosobavalues(1,'pawel','kowalski',36);insertintoosobavalues(2,'john','smith',55);insertintoosobavalues(3,'paul','psmithski',44);insertintoosobavalues(4,'jakub','kowalski',70);insertintoosobavalues(5

hadoop - 配置单元 0.14.0.2.2.4.10-1 : Multi Insert - Empty partition

我正在尝试使用以下查询进行多次插入。Fromkiran.employee_partepinsertoverwritetablekiran.employee_ext_partpartition(pdept='gbm',pspm='ajay')selectep.id,ep.name,ep.dept,ep.skill,ep.sal,ep.mgr,ep.spm,ep.commentwhereep.pdept='gbm'andep.pspm='ajay'insertoverwritetablekiran.employee_ext_partpartition(pdept='rw',pspm='pr

hadoop - 使用 hive.optimize.sort.dynamic.partition 选项避免单个文件

我正在使用配置单元。当我使用INSERT查询编写动态分区并打开hive.optimize.sort.dynamic.partition选项(SEThive.optimize.sort.dynamic.partition=true)时,总是有单个每个分区中的文件。但是如果我关闭该选项(SEThive.optimize.sort.dynamic.partition=false),我会遇到这样的内存不足异常。TaskAttempt3failed,info=[Error:Errorwhilerunningtask(failure):attempt_1534502930145_6994_1_01

hadoop - 错误无法识别的参数 --hive-partition-key

当我运行以下语句时出现错误Unrecognizedargument--hive-partition-key:sqoopimport--connect'jdbc:sqlserver://192.168.56.1;database=xyz_dms_cust_100;username-hadoop;password=hadoop'--tablee_purchase_category--hive_import--delete-target-dir--hive-tablepurchase_category_p--hive-partition-key"creation_date"--hive-pa