jjzjj

hadoop - 使用 distcp 命令复制到 s3 位置

我正在使用以下命令将一些数据从HDFS复制到S3:$hadoopdistcp-m1/user/hive/data/test/test_folder=2015_09_19_03_30s3a://data/Test/buc/2015_09_19_03_302015_09_19_03_30存储桶不存在于S3中。它成功地将/user/hive/data/test/test_folder=2015_09_19_03_30目录的数据复制到S32015_09_19_03_30存储桶中,但是当我再次执行相同的命令时,它会创建另一个存储桶进入S3。我希望这两个文件应该在同一个桶中。

hadoop - oozie distcp 操作中的正则表达式

我正在尝试将所有符合特定条件的文件复制到一个文件夹中${NAME_NODE}${PATH_COMVERSE}${CURRENT_DATE_NO_DASH}_*/*mta.gz${NAME_NODE}${PATH_MTA}/${CURRENT_DATE_NO_DASH}_*中的符号*代表A或B或C等。它搜索所有文件夹。如果我使用${CURRENT_DATE_NO_DASH}_A,它只会搜索1个文件。我怎样才能让它从所有文件夹中只取出2个?我尝试执行(A|B),但这没有用。 最佳答案 我假设这将是一个bash扩展,因为您的变量看起来像b

由于 "Mismatch in length of source",从集群到集群的 Hadoop 复制失败

我想将数据从一个集群复制到另一个集群。我用这个命令hadoopdistcphdfs://SOURCE-NAMENODE:9000/dir/\hdfs://DESTINATION-NAMENODE:9000/我收到这条消息:18/04/1112:05:37INFOmapred.CopyMapper:Copyinghdfs://SOURCE-NAMENODE:9000/SOURCE-NAMENODE/WALs/xxxx,18560,1523039740289/xxxx%2C18560%2C1523039740289.default.1523445499108tohdfs://DESTINA

hadoop - cp 命令在 Hadoop 中如何工作?

我正在阅读“Hadoop:权威指南”并解释我的问题让我引用书中的内容distcpisimplementedasaMapReducejobwheretheworkofcopyingisdonebythemapsthatruninparallelacrossthecluster.Therearenoreducers.Eachfileiscopiedbyasinglemap,anddistcptriestogiveeachmapapproximatelythesameamountofdatabybucketingfilesintoroughlyequalallocations.Bydefau

hadoop - 使用 spark 跨 hadoop 集群复制数据

我有一种情况,我必须将数据/文件从PROD复制到UAT(hadoop集群)。为此,我现在正在使用'distcp'。但它需要永远。由于distcp在引擎盖下使用map-reduce,有什么方法可以使用spark使过程更快?就像我们可以将hive执行引擎设置为'TEZ'(以替换map-reduce),我们是否可以将执行引擎设置为sparkfordistcp?或者是否有任何其他'spark'跨集群复制数据的方法,甚至可能不关心distcp?这是我的第二个问题(假设我们可以将distcp执行引擎设置为spark而不是map-reduce,否则请不要费心回答这个问题):-据我所知,Spark比m

hadoop - 为什么匿名 FTP 到 HDFS DistCp 不起作用?

我尝试使用以下命令将FTP数据复制到HDFS,hadoopdistcpftp://ftp.ncdc.noaa.gov/pub/data/noaa/1901/data/noaa/1901/这是我收到的错误15/03/0411:29:13INFOtools.DistCp:InputOptions:DistCpOptions{atomicCommit=false,syncFolder=false,deleteMissing=false,ignoreFailures=false,maxMaps=20,sslConfigurationFile='null',copyStrategy='unifo

hadoop - 我如何使用 distcp 备份 hbase?

我想使用distcp备份hbase文件。然后将hbase指向新复制的文件并使用存储的表。我知道有一些工具可以推荐用于这项工作。但是,我想知道在复制文件后我需要做什么才能让hbase识别复制的文件。例如,我想启动hbaseshell并从新复制的文件中扫描存储的表。 最佳答案 DistCp(分布式副本)是用于大型集群间/集群内复制的工具。因此,如果您想将clusterA备份到clusterB,您必须:使用distcp从clusterA复制到clusterB启动一个Hbasemaster和一些RegionServers在clusterB上

hadoop - Hadoop集群中关键文件分布

我想将大量文件从HDFS发送到GoogleStorage(GS)。所以我想在这种情况下使用distcp命令。hadoopdistcp-libjars-mhdfs://:/gs:///我还需要在core-site.xml中指定*.p12key文件才能访问GS。我需要将此文件分发到集群中的所有节点。google.cloud.auth.service.account.keyfile/opt/hadoop/conf/gcskey.p12我不想手动完成。分发key文件的最佳做法是什么? 最佳答案 有一个泛型参数-filesspecifycom

Hadoop distcp 从 S3 复制 : Signature does not match error

我正在尝试将文件从S3复制到我在AmazonEC2上的hadoopHDFS。我使用的命令是:bin/hadoopdistcps3://:@/f1hdfs://user/root/f1是文件名我也将它更改为s3n以查看它是否有效,但它没有。我将secret访问key中的正斜杠替换为%2F我得到的错误是:SignatureDoesNotMatchorg.jets3t.service.S3ServiceException:S3GETfailedfor'/%2Ff1'Therequestsignaturewecalculateddoesnotmatchthesignatureyouprovid

hadoop - 当我执行 distcp 时,映射器是否会在源或目标中运行

我在hadoop中运行Distcp以将数据从开发集群加载到生产集群。我的问题是资源将从何处获取。它是来自源还是目标? 最佳答案 Distcp在它运行的集群上分离出MapReduce作业。您可以在该集群上使用YarnUI来监控作业进度和利用率。假设您正在从Prod集群复制到Dev集群,并且担心资源利用率,那么您实际上可以在Dev集群上运行Distcp作业并让它从Prod集群“拉取”数据。 关于hadoop-当我执行distcp时,映射器是否会在源或目标中运行,我们在StackOverflo