我在路径/user/admin/foo.txt的HDFS中创建了一个简单的文件我可以在Hue中看到这个文件的内容。我如何发出命令curl-ihttp://namenode:50070/webhdfs/v1/user/admin/foo.txt?op=OPEN我收到回复HTTP/1.1307TEMPORARY_REDIRECTCache-Control:no-cacheExpires:Tue,24Nov201516:20:15GMTDate:Tue,24Nov201516:20:15GMTPragma:no-cacheExpires:Tue,24Nov201516:20:15GMTDat
我想访问存储在HDFS中的视频并在网络浏览器中显示它们。我在github上找到了这个项目(https://github.com/yeleaveszi/Play-Videos-In-HDFS),它确实做到了这一点,但无法让它工作。任何人都可以提供一些信息或方法,让我可以在网络浏览器上显示存储在HDFS中的视频。也有可能获得存储在HDFS中的视频的HTTP链接,我阅读了有关WebHDFS和HTTPFS的内容,但不太了解。如有任何帮助,我们将不胜感激。提前致谢! 最佳答案 使用WebHDFS,您可以获得存储在HDFS中的数据的HTTP链接
我正在尝试将Hue用作HDFS的文件浏览器。为此,我克隆了hue存储库并使用README.md中给出的以下命令构建应用程序色调存储库。gitclonehttps://github.com/cloudera/hue.gitcdhuemakeappsbuild/env/bin/huerunserverHueUI可在本地机器上使用默认端口访问,使用urlhttp://localhost:8000一切正常。但是当我使用我的机器ip地址时http://x.x.x.x:8000并尝试访问它一直在处理和等待的HueUI。其他观察-:我可以从远程机器ping主机。没有防火墙阻止端口。(使用nmap端口
我使用ubuntu12,Hadoop1.0.3,我使用webhdfscurl创建文件。curl-i-XPUT"http://localhost:50070/webhdfs/v1/test.txt?op=CREATE或使用curl-i-XPUT-T/home/hadoop/TestFile/test.txt"http://localhost:50070/webhdfs/v1/test?op=CREATE"两次表扬结果为HTTP/1.1307TEMPORARY_REDIRECThdfs-site.xml缺少什么设置?或者没有设置其他权限?谢谢! 最佳答案
有没有办法获取hdfs中所有目录和文件的最后修改时间?我想创建显示信息的页面,但我不知道如何在一个.txt文件中获取所有最后的修改时间。 最佳答案 看看有没有帮助:publicclassHdfsDemo{publicstaticvoidmain(String[]args)throwsIOException{Configurationconf=newConfiguration();conf.addResource(newPath("/Users/miqbal1/hadoop-eco/hadoop-1.1.2/conf/core-sit
我在我的EC2实例上设置了CHD4。一切正常。当我尝试访问时:http://ec2-00-000-000-000.us-west-1.compute.amazonaws.com:50075/webhdfs/v1/?op=GETHOMEDIRECTORY我遇到以下错误:{"RemoteException":{"exception":"IllegalArgumentException","javaClassName":"java.lang.IllegalArgumentException","message":"namenoderpcaddressisnotspecified."}}我什至
从HDFS加载数据到vertica时出现以下错误我只是停止了以前工作的数据库并在Vertica中创建了新数据库。然后我跑了vsql-f[AggregateFunctions.sql,AnalyticFunctions.sql,FilterFunctions.sql,JavaFunctions.sql,JavaUDLFunctions.sql,ParserFunctions.sql,SourceFunctions.sql,TransformFunctions.sql]当我尝试使用以下命令从HDFS加载数据时COPYexploded001SOURCEHdfs(url='http://had
在Hadoop中,我启用了授权。我为目录设置了几个acl。当我在hadoopbin中执行getfacl命令时,我可以在其中看到掩码值。hadoopfs-getfacl/Kumar#file:/Kumar#owner:Kumar#group:Hadoopuser::rwxuser:Babu:rwxgroup::r-xmask::rwxother::r-x如果我使用webhdfs运行相同的命令,则不会显示掩码值。http://localhost:50070/webhdfs/v1/Kumar?op=GETACLSTATUS{"AclStatus":{"entries":["user:Babu
以下是非hadoop系统上的客户端代码,用于在安全的远程HDFS上执行操作。Configurationconf=newConfiguration();conf.set("hadoop.security.authentication","kerberos");conf.set("java.security.krb5.conf",krbPath);conf.set("fs.defaultFS","webhdfs://10.31.251.254:50070");conf.set("fs.webhdfs.impl",org.apache.hadoop.hdfs.web.WebHdfsFileS
关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭6年前。Improvethisquestion我想写一个hadoop集群外的项目,可以从集群中读取数据,但是office网站提供的文档只给出了“curl”的方法。有Java访问hadoop集群的接口(interface)吗?