jjzjj

fileSystem

全部标签

hadoop - Flink 在 YARN : Amazon S3 wrongly used instead of HDFS 上

我关注了FlinkonYARN'ssetupdocumentation.但是,当我使用./bin/yarn-session.sh-n2-jm1024-tm2048运行时,在向Kerberos进行身份验证时,出现以下错误:2016-06-1617:46:47,760WARNorg.apache.hadoop.util.NativeCodeLoader-Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicable2016-06-1617:46:48,518INFOorg.a

filesystems - IBM 通用并行文件系统 (GPFS) 是否支持 Map/Reduce 作业?

我正在研究各种分布式文件系统。IBM通用并行文件系统(GPFS)本身是否支持Map/Reduce作业?不使用第三方软件(如HadoopMap/reduce)?谢谢! 最佳答案 2009年,GPFS被扩展为与Hadoop无缝协作,成为GPFS-SharedNothingCluster架构,现在以GPFSFilePlacementOptimizer(FPO)的名义提供。如果应用程序需要,FPO允许完全控制所有副本的数据放置。当然,您可以轻松配置以匹配HDFS分配。查看详细信息http://publib.boulder.ibm.com/i

scala - java.io.IOException : No FileSystem for scheme : hdfs 异常

我正在使用ClouderaQuickstartVMCDH5.3.0(就包裹包而言)和Spark1.2.0$SPARK_HOME=/opt/cloudera/parcels/CDH-5.3.0-1.cdh5.3.0.p0.30/lib/spark并使用命令提交Spark应用./bin/spark-submit--class--masterspark://localhost.localdomain:7077--deploy-modeclient--executor-memory4G../apps/.jarSpark_App_Main_Class_Name.scalaimportorg.ap

java.lang.UnsupportedOperationException : Not implemented by the DistributedFileSystem FileSystem implementation during FileSystem. 获取()

请查找随附的代码片段。我正在使用此代码将文件从hdfs下载到我的本地文件系统-Configurationconf=newConfiguration();FileSystemhdfsFileSystem=FileSystem.get(conf);Pathlocal=newPath(destinationPath);Pathhdfs=newPath(sourcePath);StringfileName=hdfs.getName();if(hdfsFileSystem.exists(hdfs)){hdfsFileSystem.copyToLocalFile(false,hdfs,local,

java - HDFS API - 统计目录、文件和字节数

如何在Scala/Java中以编程方式获取HDFS中的DIR_COUNT、FILE_COUNT、CONTENT_SIZEFILE_NAME?(不通过Shell)valfileStatus=fileSystem.getFileStatus(newPath(path))valfileByteSize=fileStatus.getLenFileSystemAPI似乎没有这些信息。我只能得到1个文件的文件大小(上面的代码)。但是我没有得到每个目录的文件数和字节大小。我正在寻找类似的行为:hdfsdfs-count[-q]统计所提供路径下的目录数、文件数和字节数 最佳

java - 在 FileSystem.liststatus 中过滤日志文件(_success 和 _log)

您好,在使用FileSystem.listStatus方法时,我想过滤日志文件并仅列出不是日志文件的文件。我该怎么做?谢谢 最佳答案 如果您在源代码中查找FileInputFormat(第62行)他们有一个私有(private)静态PathFilter,它会忽略以下划线或句点开头的文件。由于它是私有(private)的,你必须复制代码,或者如果你的输入文件总是以部分开头(即你没有使用MultipleOutputs),你的答案就足够了 关于java-在FileSystem.liststat

eclipse - cloudera hadoop : caused by: java. lang.ClassNotFoundException : org. apache.htrace.core.Tracer$Builder

我只是按照教程运行了一个示例程序:http://web.stanford.edu/class/cs246/homeworks/tutorial.pdf出现以下错误:SLF4J:Failedtoloadclass"org.slf4j.impl.StaticLoggerBinder".SLF4J:Defaultingtono-operation(NOP)loggerimplementationSLF4J:Seehttp://www.slf4j.org/codes.html#StaticLoggerBinderforfurtherdetails.16/10/2421:48:18WARNuti

java - NoSuchMethodError : org. apache.hadoop.io.retry.RetryUtils.getDefaultRetryPolicy

以前我在单节点集群上通过java在hdfs中创建目录,它运行得很顺利,但是一旦我创建了多节点集群,我就得到了这个错误我得到的堆栈跟踪看起来像这样Exceptioninthread"main"java.lang.NoSuchMethodError:org.apache.hadoop.io.retry.RetryUtils.getDefaultRetryPolicy(Lorg/apache/hadoop/conf/Configuration;Ljava/lang/String;ZLjava/lang/String;Ljava/lang/String;Ljava/lang/Class;)Lo

java - 所有 map task 的 Hadoop 缓存文件

我的map函数必须为每个输入读取一个文件。那个文件根本没有改变,它只是为了阅读。我认为分布式缓存可能对我有很大帮助,但我找不到使用它的方法。我认为我需要覆盖的publicvoidconfigure(JobConfconf)函数已被弃用。好吧,JobConf肯定被弃用了。所有DistributedCache教程都使用已弃用的方式。我能做什么?我可以覆盖另一个配置功能吗?这些是我的map函数的第一行:Configurationconf=newConfiguration();//loadtheMFileFileSystemfs=FileSystem.get(conf);PathinFile=

java - 多个 Hadoop FileSystem 实例

我有一个类(为了便于阅读,我删除了try/catch):publicclassHadoopFileSystem{privateFileSystemm_fileSystem=null;publicHadoopFileSystem(){Configurationl_configuration=newConfiguration();l_configuration.set("fs.default.name","hdfs://localhost:9100");l_configuration.set("mapred.job.tracker","localhost:9101");m_fileSyst