jjzjj

fileutils

全部标签

java - 使用 Junit 比较文本文件

我正在使用junit比较文本文件:publicstaticvoidassertReaders(BufferedReaderexpected,BufferedReaderactual)throwsIOException{Stringline;while((line=expected.readLine())!=null){assertEquals(line,actual.readLine());}assertNull("Actualhadmorelinesthentheexpected.",actual.readLine());assertNull("Expectedhadmoreline

java - 使用 FileUtil API 在同一个 hdfs 中复制文件需要太多时间

我有1个HDFS和我的本地系统,我从那里执行我的程序以在同一个hdfs系统中执行复制。比如:hadoopfs-cp/user/hadoop/SrcFile/user/hadoop/TgtFile我正在使用:FileUtil.copy(FileSystemsrcFS,FileStatussrcStatus,FileSystemdstFS,Pathdst,booleandeleteSource,booleanoverwrite,Configurationconf)但奇怪的事情发生了,当我从命令行复制时,复制只需要一点时间,但当我以编程方式执行时,复制190MB的文件需要10-15分钟。对我

Hadoop FileUtil copymerge - 忽略 header

从spark写入HDFS时,根据header设置,每个文件都有一个header。因此,当在FileUtil中调用copymerge时,我们会在合并文件中得到重复的header。有没有办法保留第一个文件的标题并忽略其他文件。 最佳答案 如果您打算将其合并为一个文件,然后将其提取到您的本地文件系统,您可以使用getmerge.getmergeUsage:hadoopfs-getmerge[-nl]Takesasourcedirectoryandadestinationfileasinputandconcatenatesfilesinsr

Hadoop FileUtil.copy 签名

在Hadoop2.2.0(hadoop-common)中,我看到了FileUtil.copy的以下签名和文档:/**CopyfilesbetweenFileSystems.*/publicstaticbooleancopy(FileSystemsrcFS,Pathsrc,FileSystemdstFS,Pathdst,booleandeleteSource,Configurationconf)throwsIOException{我应该如何处理boolean和同时发生的IOException?是否打算根据对IOException的具体理解来区分两类可能的错误?在源代码中,使用falsei

scala - Hadoop FileUtils 无法从 Scala 在本地(Unix)文件系统上写入文件

我正在尝试使用org.apache.hadoop.fs的文件系统库将文件写入本地FileSystem。下面是我在大scala代码中的一个线性代码,它应该这样做,但事实并非如此。fs.copyToLocalFile(false,hdfsSourcePath,newPath(newFile.getAbsolutePath),true)newFile的值为:valnewFile=newFile(s"${localPath}/fileName.dat")localPath只是一个包含本地磁盘上完整路径的变量。hdfsSourcePath是HDFS位置的完整路径。作业正常执行,但我没有看到在本地

java.lang.NoSuchMethodError : org. apache.commons.io.FileUtils.isSymLink(Ljava/io/File;)Z

我在使用sqoop(主机)从位于不同机器(即从机)中的oracledb导入数据时遇到此错误。我也替换了commons.io.jar文件。 最佳答案 这与任何特定的库无关。这是java中的一般异常问题很简单。该方法在编译时可用,但在运行时不可用。其中一个原因可能是您使用了错误版本的公共(public)库。只需在任何zip查看器中打开该jar文件,然后转到可以找到该类的特定位置,该位置将类似于org/apache/commons/io/FileUtils并使用一些类反编译器反编译该类并检查该方法是否isSymLink(Ljava/io/

scala - AWS S3 中的 FileUtil.copyMerge()

我已经使用以下代码将DataFrame作为text格式加载到HDFS中。finalDataFrame是DataFramefinalDataFrame.repartition(1).rdd.saveAsTextFile(targetFile)执行上面的代码后,我发现用我提供的文件名创建了一个目录,并在该目录下创建了一个文件,但不是文本格式。文件名类似于part-00000。我已经使用下面的代码在HDFS中解决了这个问题。valhadoopConfig=newConfiguration()valhdfs=FileSystem.get(hadoopConfig)FileUtil.copyMe

java - FileUtils.copyFile() VS FileChannel.transferTo()

我发现,copyToFile()的底层操作系统调用是Libcore.os.read(fd,bytes,byteOffset,byteCount),而transferTo()基于内存映射文件:MemoryBlock.mmap(fd,alignment,size+offset,mapMode);...buffer=map(MapMode.READ_ONLY,position,count);returntarget.write(buffer);Q1:我的发现是对还是错?Q2:是否有任何理由使用FileUtils.copyFile()因为FileChannel.transferTo()似乎应该

android - 错误 "java.lang.NoClassDefFoundError: com.google.repacked.apache.commons.io.FileUtils"

Android应用在其build.gradle中具有以下内容:dependencies{...compile'commons-io:commons-io:2.4'}构建和安装应用程序没有问题。但是下面的代码:FileUtils.writeStringToFile(fText,"Test");导致以下异常:java.lang.NoClassDefFoundError:com.google.repacked.apache.commons.io.FileUtils谁能提供有关如何解决此问题的提示?[编辑:]我刚刚意识到在build.gradle中没有以下内容仍然可以构建应用程序:depend

android - Gradle 同步失败 : Argument for @NotNull parameter 'aFileName' of com/intellij/openapi/util/io/FileUtil. toSystemIndependentName 不能为空

我将我的项目导入到AndroidStudio1.3.2,现在显示错误GradlesyncstartedGradlesyncfailed:Argumentfor@NotNullparameter'aFileName'ofcom/intellij/openapi/util/io/FileUtil.toSystemIndependentNamemustnotbenullGradlesynccompletedIllegalArgumentException:FailedtosetupAndroidmodulesinproject'MaterialTabs':Argumentfor@NotNul