jjzjj

disk-partitioning

全部标签

hadoop - 配置单元设置 hive.optimize.sort.dynamic.partition

我正在尝试插入具有动态分区的配置单元表。同一查询在过去几天一直运行良好,但现在出现以下错误。DiagnosticMessagesforthisTask:java.lang.RuntimeException:org.apache.hadoop.hive.ql.metadata.HiveException:HiveRuntimeError:Unabletodeserializereduceinputkeyfromx1x128x0x0x46x234x240x192x148x1x68x69x86x50x0x1x128x0x104x118x1x128x0x0x46x234x240x192x148

linux - Hadoop HDFS : DateNode directory on system partition?

我们用这种方式设置的Hadoop集群空间不足:1x1TBHDD/3个1.5TBHDD/data1/data2/data3系统分区几乎不用(97%空闲),不会用于与hadoop无关的任务。将系统分区作为HDFS数据目录添加到DataNode配置中是否安全?我担心Hadoop会填满分区并使系统无法使用。最好的方法可能是设置单独的lvm卷或重新分区磁盘。但我会避免走这条路。hadoop是否遵守unix配额?例如。如果我从系统分区添加一个目录并通过配额限制hadoop用户只能使用例如0.5TB会有帮助吗? 最佳答案 是的,Hadoop使用通

hadoop - 谷歌大查询 : Incompatible table partitioning specification

从未分区的临时表向按天分区的最终表提交复制作业时,我收到了cause:java.io.IOException:ErrorMessage:Incompatibletablepartitioningspecification.Expectspartitioningspecificationinterval(type:day),butinputpartitioningspecificationisnone;那么复制作业到分区表的输入表是否有任何限制,如何克服这些限制?使用Load作业在hadoopbigquery-connector类中创建临时表。而JobConfigurationLoad根

hadoop - Spark : Minimize task/partition size skew with textFile's minPartitions option?

我正在通过sc.textFile("/data/*/*/*")之类的方式将数万个文件读入rdd>一个问题是这些文件中的大多数都是微小的,而其他的则巨大。这会导致任务不平衡,从而导致各种众所周知的问题。我能否通过sc.textFile("/data/*/*/*",minPartitions=n_files*5)读取数据来拆分最大的分区,其中n_files是输入文件的个数吗?如约定elsewhere在stackoverflow上,minPartitions被传递到hadooprabithole,并在org.apache.hadoop.mapred.TextInputFormat.getSp

oracle - 使用 sqoop 将数据从 oracle 导入到 hive - 不能使用 --hive-partition-key

我有一个简单的表格:createtableosoba(idnumber,imievarchar2(100),nazwiskovarchar2(100),wiekinteger);insertintoosobavalues(1,'pawel','kowalski',36);insertintoosobavalues(2,'john','smith',55);insertintoosobavalues(3,'paul','psmithski',44);insertintoosobavalues(4,'jakub','kowalski',70);insertintoosobavalues(5

hadoop - 无法将 TotalOrderPartitioner 与 Hive : Can't read partitions file 一起使用

我们正在尝试使用生成HBaseHfiles从Hive批量加载。我们的主要问题是,当使用org.apache.hadoop.mapred.lib.TotalOrderPartitioner;它找不到自定义分区程序文件:java.lang.IllegalArgumentException:Can'treadpartitionsfile更多详情:自定义分区程序文件是从Hive表创建的:CREATEEXTERNALTABLEnetezza.ais_lowres_mmsi_range_keys(hbase_key_range_startstring)ROWFORMATSERDE'org.apac

hadoop - hive中partitioning和bucketing的比较区别

我们能否定义一种方法来决定是否应该进行分桶或分区? 最佳答案 通常Hive中的分区提供了一种将Hive表数据分离到多个文件/目录中的方法。但是分区在以下情况下会产生有效的结果,分区数量有限大小相当的分区但这可能并非在所有情况下都可行,例如当我们根据国家/地区等地理位置对我们的表进行分区时,一些较大的国家/地区将有较大的分区(例如:4-5个国家/地区本身贡献了总数据的70-80%),其中小国家数据将创建小分区(世界上其余所有国家可能只占总数据的20-30%)。因此,在这些情况下,分区将不是理想的。为了克服过度分区的问题,Hive提供了

hadoop - AWS 上的 hive : convert S3 JSON to Columnar preserving partitions

我在S3中有包含多行JSON(以换行符分隔)的文件。我想将这些文件转换为柱状格式以供AWSAthena使用我正在关注ConvertingtoColumnarFormatsguide要做到这一点,但是当转换为ORC时,S3中的分区约定将丢失。在这个例子中,如何在转换为parquets3的文件夹结构中保留dt分区?当我运行示例时,它只输出s3://myBucket/pq/000000_0而不是s3://myBucket/pq/dt=2009-04-14-04-05/000000_0这是设置接口(interface)以将JSON导入Hive表的HQL:CREATEEXTERNALTABLEi

hadoop - 配置单元 0.14.0.2.2.4.10-1 : Multi Insert - Empty partition

我正在尝试使用以下查询进行多次插入。Fromkiran.employee_partepinsertoverwritetablekiran.employee_ext_partpartition(pdept='gbm',pspm='ajay')selectep.id,ep.name,ep.dept,ep.skill,ep.sal,ep.mgr,ep.spm,ep.commentwhereep.pdept='gbm'andep.pspm='ajay'insertoverwritetablekiran.employee_ext_partpartition(pdept='rw',pspm='pr

hadoop - 使用 hive.optimize.sort.dynamic.partition 选项避免单个文件

我正在使用配置单元。当我使用INSERT查询编写动态分区并打开hive.optimize.sort.dynamic.partition选项(SEThive.optimize.sort.dynamic.partition=true)时,总是有单个每个分区中的文件。但是如果我关闭该选项(SEThive.optimize.sort.dynamic.partition=false),我会遇到这样的内存不足异常。TaskAttempt3failed,info=[Error:Errorwhilerunningtask(failure):attempt_1534502930145_6994_1_01