org.apache.hadoop.security.AccessControlException 解决办法

本文解析了在Hadoop和Spark环境下常见的权限异常问题,包括上传文件到HDFS失败、spark-shell启动错误及远程任务提交失败等场景,并提供了详细的解决方案,如修改系统环境变量、代码设置或配置文件调整。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

异常1:

上传文件到hdfs,找不到文件
在这里插入图片描述

异常2:

spark-shell启动报错
在这里插入图片描述
org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x

异常3:

远程提交任务给Hadoop 可能会遇到 “org.apache.hadoop.security.AccessControlException:Permission denied: user=…”

异常4:

如果是spark on YARN, 也同样会遇到类似的问题

分析

为什么产生异常信息:
原因很简单,因为远程提交的情况下如果没有hadoop 的系统环境变量,就会读取当前主机的用户名,所以Hadoop集群的节点中没有该用户名的权限,所以出现的异常。

解决:

方法1.

    将:export HADOOP_USER_NAME = hdfs 

    添加到 ~/.bash_profile 中,然后执行

    source  ~/.bash_profile

注意:~/.bash_profile只对当前用户有效。每个用户有一个 ~/.bash_profile文件。

方法2.

    将System.setProperty("HADOOP_USER_NAME”,“hdfs”);     

    添加到代码的main方法首部,

    该语句的意思是修改代码的系统变量HADOOP_USER_NAME的内容为hdfs

当然,也可以使用网上常说的修改hadoop的配置文件来解决该问题。

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值