jjzjj

hadoop - 在hadoop中获取堆栈溢出错误

coder 2024-01-07 原文

我在使用 java 代码访问 haddop 文件时遇到堆栈溢出错误。

import java.io.InputStream;
import java.net.URL;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;
public class URLCat 
{
    static 
    {
            URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
    }

    public static void main(String[] args) throws Exception 
    {
        InputStream in = null;
        try 
        {
            in = new URL(args[0]).openStream();
            IOUtils.copyBytes(in, System.out, 4096, false);
        }
        finally 
        {
            IOUtils.closeStream(in);
        }
    }
}

我用eclipse调试这段代码然后我才知道行

in = new URL(args[0]).openStream();

产生错误。

我通过传递 hadoop 文件路径来运行这段代码,即

 hdfs://localhost/user/jay/abc.txt

异常(从评论中提取):

Exception in thread "main" java.lang.StackOverflowError
  at java.nio.Buffer.<init>(Buffer.java:174) 
  at java.nio.ByteBuffer.<init>(ByteBuffer.java:259) 
  at java.nio.HeapByteBuffer.<init>(HeapByteBuffer.java:52) 
  at java.nio.ByteBuffer.wrap(ByteBuffer.java:350) 
  at java.nio.ByteBuffer.wrap(ByteBuffer.java:373) 
  at java.lang.StringCoding$StringEncoder.encode(StringCoding.java:237) 
  at java.lang.StringCoding.encode(StringCoding.java:272) 
  at java.lang.String.getBytes(String.java:946) 
  at java.io.UnixFileSystem.getBooleanAttributes0(Native Method) 
  .. stack trace truncated ..

最佳答案

1)这是因为hadoop提供的FSURLStreamHandlerFactory类存在bug。请注意,该错误已在包含此类的最新 jar 中修复。

2) 该文件位于 hadoop-common-2.0.0-cdh4.2.1.jar 中。要完全理解这个问题,我们必须理解 java.net.URL 类是如何工作的。

URL 对象的工作

当我们使用其构造函数中的任何一个创建新 URL 而未传递“URLStreamHandler”(通过为其值传递 null 或调用不将 URLStreamHandler 对象作为其参数的构造函数)时,它会在内部调用一个名为 getURLStreamHandler( ).该方法返回 URLStreamHandler 对象并设置一个成员

URL 类中的变量。

这个对象知道如何构建特定方案的连接,如“http”、"file"……等等。这个 URLStreamHandler 是由名为

的工厂构造的

URLStreamHandlerFactory。

3) 在上面给出的问题示例中,通过调用以下静态方法将 URLStreamHandlerFactory 设置为“FsUrlStreamHandlerFactory”。

    URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());

因此,当我们创建一个新 URL 时,这个“FSUrlStreamHandlerFactory”用于通过调用其 createURLStreamHandler(protocol) 方法为这个新 URL 创建 URLStreamHandler 对象。

该方法依次调用 FileSystem 类的名为 loadFileSystems() 的方法。 loadFileSystems() 方法调用 ServiceLoader.load("FileSystem.class") 因此它尝试通过搜索类路径中所有 jar 文件的所有 META-INF/services/*.FileSystem 文件来读取 FileSystem 实现类的二进制名称和阅读其条目。

4) 请记住,每个 jar 都是作为 URL 对象处理的,这意味着对于每个 jar,一个 URL 对象是由 ClassLoader 在内部创建的。类加载器提供 URLStreamHandler 对象

在为这些 jar 构建 URL 时,这些 URL 将不会受到我们设置的“FSUrlStreamHandlerFactory”的影响,因为 URL 已经具有“URLStreamHandler”。因为我们是

处理 jar 文件时,类加载器将“URLStreamHandler”设置为“sun.net.www.protocol.jar.Handler”类型。

5) 现在为了读取文件系统实现类的 jar 文件中的条目,“sun.net.www.protocol.jar.Handler”需要通过以下方式为每个条目构造 URL 对象

在没有 URLStreamHandler 对象的情况下调用 URL 构造函数。由于我们已经将 URLStreamHandlerFactory 定义为“FSUrlStreamHandlerFactory”,因此它调用 createURLStreamHandler

(protocol) 方法导致无限递归并导致“StackOverflowException”。

此错误被 Hadoop 提交者称为“HADOOP-9041”。链接是https://issues.apache.org/jira/browse/HADOOP-9041 .

我知道这有点复杂。

所以简而言之,下面给出了这个问题的解决方案。

1) 使用最新的 jar hadoop-common-2.0.0-cdh4.2.1.jar 修复了这个 bug

2) 在设置 URLStreamHandlerFactory 之前,将以下语句放在静态 block 中。

      static {
               FileSystem.getFileSystemClass("file",new Configuration()); 
               URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
             } 

请注意,静态 block 中的第一条语句现在不依赖于 FsUrlStreamHandlerFactory,而是使用 file://的默认处理程序来读取 META-INF/services/*.FileSystem 文件中的整个文件。

关于hadoop - 在hadoop中获取堆栈溢出错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17360018/

有关hadoop - 在hadoop中获取堆栈溢出错误的更多相关文章

  1. ruby-on-rails - Rails 常用字符串(用于通知和错误信息等) - 2

    大约一年前,我决定确保每个包含非唯一文本的Flash通知都将从模块中的方法中获取文本。我这样做的最初原因是为了避免一遍又一遍地输入相同的字符串。如果我想更改措辞,我可以在一个地方轻松完成,而且一遍又一遍地重复同一件事而出现拼写错误的可能性也会降低。我最终得到的是这样的:moduleMessagesdefformat_error_messages(errors)errors.map{|attribute,message|"Error:#{attribute.to_s.titleize}#{message}."}enddeferror_message_could_not_find(obje

  2. ruby-on-rails - 迷你测试错误 : "NameError: uninitialized constant" - 2

    我遵循MichaelHartl的“RubyonRails教程:学习Web开发”,并创建了检查用户名和电子邮件长度有效性的测试(名称最多50个字符,电子邮件最多255个字符)。test/helpers/application_helper_test.rb的内容是:require'test_helper'classApplicationHelperTest在运行bundleexecraketest时,所有测试都通过了,但我看到以下消息在最后被标记为错误:ERROR["test_full_title_helper",ApplicationHelperTest,1.820016791]test

  3. ruby-on-rails - 如何在 Rails View 上显示错误消息? - 2

    我是rails的新手,想在form字段上应用验证。myviewsnew.html.erb.....模拟.rbclassSimulation{:in=>1..25,:message=>'Therowmustbebetween1and25'}end模拟Controller.rbclassSimulationsController我想检查模型类中row字段的整数范围,如果不在范围内则返回错误信息。我可以检查上面代码的范围,但无法返回错误消息提前致谢 最佳答案 关键是您使用的是模型表单,一种显示ActiveRecord模型实例属性的表单。c

  4. ruby - 简单获取法拉第超时 - 2

    有没有办法在这个简单的get方法中添加超时选项?我正在使用法拉第3.3。Faraday.get(url)四处寻找,我只能先发起连接后应用超时选项,然后应用超时选项。或者有什么简单的方法?这就是我现在正在做的:conn=Faraday.newresponse=conn.getdo|req|req.urlurlreq.options.timeout=2#2secondsend 最佳答案 试试这个:conn=Faraday.newdo|conn|conn.options.timeout=20endresponse=conn.get(url

  5. 使用 ACL 调用 upload_file 时出现 Ruby S3 "Access Denied"错误 - 2

    我正在尝试编写一个将文件上传到AWS并公开该文件的Ruby脚本。我做了以下事情:s3=Aws::S3::Resource.new(credentials:Aws::Credentials.new(KEY,SECRET),region:'us-west-2')obj=s3.bucket('stg-db').object('key')obj.upload_file(filename)这似乎工作正常,除了该文件不是公开可用的,而且我无法获得它的公共(public)URL。但是当我登录到S3时,我可以正常查看我的文件。为了使其公开可用,我将最后一行更改为obj.upload_file(file

  6. ruby-on-rails - 错误 : Error installing pg: ERROR: Failed to build gem native extension - 2

    我克隆了一个rails仓库,我现在正尝试捆绑安装背景:OSXElCapitanruby2.2.3p173(2015-08-18修订版51636)[x86_64-darwin15]rails-v在您的Gemfile中列出的或native可用的任何gem源中找不到gem'pg(>=0)ruby​​'。运行bundleinstall以安装缺少的gem。bundleinstallFetchinggemmetadatafromhttps://rubygems.org/............Fetchingversionmetadatafromhttps://rubygems.org/...Fe

  7. ruby - #之间? Cooper 的 *Beginning Ruby* 中的错误或异常 - 2

    在Cooper的书BeginningRuby中,第166页有一个我无法重现的示例。classSongincludeComparableattr_accessor:lengthdef(other)@lengthother.lengthenddefinitialize(song_name,length)@song_name=song_name@length=lengthendenda=Song.new('Rockaroundtheclock',143)b=Song.new('BohemianRhapsody',544)c=Song.new('MinuteWaltz',60)a.betwee

  8. ruby-on-rails - 每次我尝试部署时,我都会得到 - (gcloud.preview.app.deploy) 错误响应 : [4] DEADLINE_EXCEEDED - 2

    我是Google云的新手,我正在尝试对其进行首次部署。我的第一个部署是RubyonRails项目。我基本上是在关注thisguideinthegoogleclouddocumentation.唯一的区别是我使用的是我自己的项目,而不是他们提供的“helloworld”项目。这是我的app.yaml文件runtime:customvm:trueentrypoint:bundleexecrackup-p8080-Eproductionconfig.ruresources:cpu:0.5memory_gb:1.3disk_size_gb:10当我转到我的项目目录并运行gcloudprevie

  9. ruby - 从 Ruby 中的主机名获取 IP 地址 - 2

    我有一个存储主机名的Ruby数组server_names。如果我打印出来,它看起来像这样:["hostname.abc.com","hostname2.abc.com","hostname3.abc.com"]相当标准。我想要做的是获取这些服务器的IP(可能将它们存储在另一个变量中)。看起来IPSocket类可以做到这一点,但我不确定如何使用IPSocket类遍历它。如果它只是尝试像这样打印出IP:server_names.eachdo|name|IPSocket::getaddress(name)pnameend它提示我没有提供服务器名称。这是语法问题还是我没有正确使用类?输出:ge

  10. ruby-on-rails - Rails 5 Active Record 记录无效错误 - 2

    我有两个Rails模型,即Invoice和Invoice_details。一个Invoice_details属于Invoice,一个Invoice有多个Invoice_details。我无法使用accepts_nested_attributes_forinInvoice通过Invoice模型保存Invoice_details。我收到以下错误:(0.2ms)BEGIN(0.2ms)ROLLBACKCompleted422UnprocessableEntityin25ms(ActiveRecord:4.0ms)ActiveRecord::RecordInvalid(Validationfa

随机推荐