jjzjj

DistributedFileSystem

全部标签

hadoop - 使用 Amazon S3 存储桶输入和输出在 Amazon EMR 上运行自定义 JAR 时出现错误(文件系统错误)

我正在尝试使用自定义JAR的输入和输出参数作为S3存储桶在AmazonEMR集群上运行自定义JAR(-inputs3n://s3_bucket_name/ldas/in-outputs3n://s3_bucket_name/ldas/out)当集群运行此自定义JAR时,会发生以下异常。Exceptioninthread"main"java.lang.IllegalArgumentException:**WrongFS:s3n://s3_bucket_name/ldas/out,expected:hdfs://10.214.245.187:9000**atorg.apache.hadoo

hadoop - 使用 s3 的 spark 加载 json 时 FS 错误

我正在尝试使用spark和magellanlibrary加载geojson文件我的加载代码是:valpolygons=spark.read.format("magellan").option("type","geojson").load(inJson)inJson是我在s3上的json的路径:s3n://bucket-name/geojsons/file.json堆栈跟踪错误:0.3instage0.0(TID3,ip-172-31-19-102.eu-west-1.compute.internal,executor1):java.lang.IllegalArgumentExcepti

java - 无法在 URI || 中的分布式缓存中加载文件获取 NULLPointerException

我正在尝试编写一个正在进行情感分析的map缩减作业,我正在使用AFINN.txt作为字典。在运行mapreduce作业时,我将其放入HDFS中的文件中并尝试运行,但每次都失败。我正在使用以下代码将单词与AFINN进行比较publicclassSentiment_AnalysisextendsConfiguredimplementsTool{publicstaticclassMapextendsMapper{privateURI[]files;privateHashMapAFINN_map=newHashMap();@Overridepublicvoidsetup(Contextcont

java - Hadoop - UnsupportedOperationException : Not implemented by the DistributedFileSystem

当我导出到jar文件并在Hadoop节点上运行时,我在eclipse项目中有以下代码StringhdrsUrl="hdfs://servername:8020";Configurationconf=newConfiguration();conf.set("fs.defaultFS",hdrsUrl);FileSystemfs=FileSystem.get(conf);我收到以下错误15/04/1708:21:43WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin

java.lang.UnsupportedOperationException : Not implemented by the DistributedFileSystem FileSystem implementation during FileSystem. 获取()

请查找随附的代码片段。我正在使用此代码将文件从hdfs下载到我的本地文件系统-Configurationconf=newConfiguration();FileSystemhdfsFileSystem=FileSystem.get(conf);Pathlocal=newPath(destinationPath);Pathhdfs=newPath(sourcePath);StringfileName=hdfs.getName();if(hdfsFileSystem.exists(hdfs)){hdfsFileSystem.copyToLocalFile(false,hdfs,local,

hadoop - Alluxio 错误 :java. lang.IllegalArgumentException:错误的 FS

我可以使用cloudera提供的示例jar在alluxio上运行wordcount,使用:sudo-uhdfshadoopjar/usr/lib/hadoop-0.20-mapreduce/hadoop-examples.jarwordcount-libjars/home/nn1/alluxio-1.2.0/core/client/target/alluxio-core-client-1.2.0-jar-with-dependencies.jaralluxio://nn1:19998/wordcountalluxio://nn1:19998/wc1这是成功的。但是当我使用附加代码创建的

java - NiFi - 自定义 orc 处理器为类 org.apache.hadoop.hdfs.DistributedFileSystem 提供 NoClassDefFoundError

我正在尝试在ApacheNiFi中开发一个自定义处理器,它将orc文件直接写入远程hadoop集群。为了编写它们,我正在使用orccoreapi.我尝试在本地FS上写入文件,它们没问题:hive,这是它们的“最终目的地”,读取它们没有问题。问题是,在尝试创建Writer对象时,我得到了org.apache.hadoop.hdfs.DistributedFileSystem类的NoClassDefFoundError。这是使用的代码:Configurationconf=newConfiguration();conf.addResource(newPath(hadoopConfigurat

java - 方案 :hdfs and Class org. 没有找到 apache.hadoop.DistributedFileSystem 的文件系统

我想上传一个文件到HDFS。我使用以下jars作为依赖项编译了我的代码:hadoop-auth-2.6.1.jar,hadoop-common-2.6.1.jar和hadoop-hdfs-2.6.1.jar,我的代码:我用Ant编译的。但是,它给了我这个错误:NoFileSystemforscheme:hdfs。然后我改了代码,重新编译:但现在我遇到了另一个错误:Classorg.apache.hdfs.DistributedFileSystemnotfound。怎么了?我该怎么办? 最佳答案 DistributedFileSyst

java - hadoop DistributedFileSystem 线程安全吗?

我正在使用hadoop来写入我抓取的数据。我有一个从多个线程调用的spring服务,用于将一些内容写入HDFS。@ServicepublicclassWriteService{publicvoidwrite(Stringpath,Stringcontent){FileSystemfs=FileSystem.get(conf);}}我不确定FileSystem对象是否可以成为WriteService的成员,我也没有发现它是否是线程安全的。我正在使用DistributedFileSystem对象。您知道它是否是线程安全的吗?我可以将它用作我的服务的成员吗?谢谢