jjzjj

UserGroupInformation

全部标签

hadoop - 确定 Apache Spark 作业中的当前 Kerberos 用户

我在支持Kerberos的集群(Cloudera)上运行Spark作业,并希望能够为作业的任何给定运行记录用户的Kerberos身份。(注意这里不是启动job的本地linux用户身份,因为我们使用keytab文件,jaas.conf文件,调用kinit启动脚本。我们可以在启动脚本中记录一个身份,因为我们知道与key表一起传递给kinit的主体,但是能够在实际的Spark作业本身中登录会很好,这样即使一个作业是手动启动的,我们也能可靠地知道它在什么身份下运行)。一些答案​​表明如下:importjava.security.{AccessController,Principal}impor

hadoop - 将 jars 复制到/home/hadoop/lib emr 时出错

我正在将我的外部jar复制到emr中的/home/hadoop/lib目录作为bootstrap进程。但是它在引导过程中显示以下错误Exceptioninthread"main"java.lang.IncompatibleClassChangeError:classcom.google.common.cache.CacheBuilder$3hasinterfacecom.google.common.base.Tickerassuperclassatjava.lang.ClassLoader.defineClass1(NativeMethod)atjava.lang.ClassLoade

java - 运行水槽下载 Twitter 数据时出现未处理的错误 java.lang.NoSuchMethodError

当我运行这个命令时hduser@ubuntu:/usr/local/flume$bin/flume-ngagent--conf./conf/-fconf/twitterflume-agent.conf-Dflume.root.logger=DEBUG,console-nTwitterAgent水槽正在启动,但一段时间后它抛出异常,不允许水槽下载。我收到以下错误:2015-10-3110:18:32,152(conf-file-poller-0)[INFO-org.apache.flume.sink.DefaultSinkFactory.create(DefaultSinkFactory

java - 如何将 UserGroupInformation 与 Kerberos WebHDFS 一起使用

以下是非hadoop系统上的客户端代码,用于在安全的远程HDFS上执行操作。Configurationconf=newConfiguration();conf.set("hadoop.security.authentication","kerberos");conf.set("java.security.krb5.conf",krbPath);conf.set("fs.defaultFS","webhdfs://10.31.251.254:50070");conf.set("fs.webhdfs.impl",org.apache.hadoop.hdfs.web.WebHdfsFileS

hadoop - MapReduce 错误 UserGroupInformation - PriviledgedActionException

我正在尝试在我的本地机器上运行以下MapReduce代码:https://github.com/Jeffyrao/warcbase/blob/extract-links/src/main/java/org/warcbase/data/ExtractLinks.java但是,我遇到了这个异常:[main]ERRORUserGroupInformation-PriviledgedActionExceptionas:jeffy(auth:SIMPLE)cause:java.io.IOException:java.util.concurrent.ExecutionException:java.

linux - 无法写入 Hadoop DFS 目录模式 775 组权限 UserGroupInformation

我在启用了文件系统权限的私有(private)集群上运行Hadoop2.6.2。集群有密码文件,只有像hadoop这样的系统用户,没有个人账户。我正在从具有像我这样的个人帐户('clott')的linux边缘节点访问DFS。问题是我无法写入模式为775和组hadoop的DFS目录(“共享”);边缘节点显示我是hadoop组的成员。我以为会使用边缘节点上的用户组成员资格,但是没有?这是我看到的:clott@edge$iduid=1003(clott)gid=1003(clott)groups=1003(clott),27(sudo),1001(hadoop)clott@edge$hdfs

hadoop - 在运行时在 Kerberos 安全 Hadoop 集群中模拟用户

我有一个Web应用程序,它接收来自不同用户的从linux命令行运行的其他几个应用程序的请求。对于这些请求中的每一个,我都必须从hdfs读取数据以调用只有调用应用程序linux用户才能访问的应用程序文件夹。有没有一种方法可以设置配置,使其可以在运行时被覆盖以模拟调用者应用程序用户进行hadoopkerberos身份验证。我使用下面的代码创建了一个UserGroupInformation以从kerberoskeytab登录。此UGI将充当真实用户并将其传递给UserGroupInformation类以创建代理用户,如下所示。UserGroupInformationrealUgi=UserG

java - 我怎样才能用java在hdfs中创建一个新目录?

publicstaticvoidmain(String[]args)throwsIOException,URISyntaxException{配置config=newConfiguration();config.set("fs.default.name","hdfs://127.0.0.1:50070/dfshealth.jsp");FileSystemdfs=FileSystem.get(config);StringdirName="TestDirectory";Pathsrc=newPath(dfs.getWorkingDirectory()+"/"+dirName);dfs.mk

Hadoop 名称节点 - 没有可用于匿名用户的组

我正在检查我的名称节点的日志,我发现了这个:2016-06-0403:09:28,843INFOBlockStateChange(BlockManager.java:computeReplicationWorkForBlocks(1527))-BLOCK*neededReplications=0,pendingReplications=0.2016-06-0403:09:28,960WARNsecurity.UserGroupInformation(UserGroupInformation.java:getGroupNames(1521))-Nogroupsavailableforus

java - Hadoop ClassNotFoundException 异常

我正在编写我的第一个Hadoop应用程序,但出现错误。我不太明白这个堆栈跟踪中的一些细节是什么意思。这是一个ClassNotFoundException。我在UbuntuLinuxv12.10、Eclipse3.8.0、Java1.6.0_24上构建它。我通过从Apache站点下载并使用Ant构建来安装Hadoop。当我创建作业时,我的崩溃发生在程序的第一行。publicstaticvoidmain(String[]args)throwsIOException,InterruptedException,ClassNotFoundException{Jobjob=newJob();(or
12