本实验使用的Spark版本为spark-3.1.2-bin-hadoop3.2。
1、解压安装Spark
解压Spark安装包:
tar -zxf /opt/hadoop/s spark-3.1.2-bin-hadoop3.2.tgz -C ~/
2、修改spark-env.sh
将spark的conf目录下的spark-env.sh.template模板文件复制为spark-env.sh:
cp spark-env.sh.template spark-env.sh
然后添加如下内容
export JAVA_HOME=/usr/java/jdk1.8.0_51
export SCALA_HOME=/home/hadoop/scala-2.12.17
export HADOOP_HOME=/home/hadoop/hadoop-3.2.0
export SPARK_HOME=/home/hadoop/spark-3.1.2-bin-hadoop3.2
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_DIST_CLASSPATH=$(/home/hadoop/hadoop-3.2.0/bin classpath)
export SPARK_MASTER_HOST=namenode
export SPARK_MAETER_PORT=7070
3、配置环境变量
新增或编辑 ~/.bashrc文件,添