执行tar -zxvf spark-2.0.2-bin-hadoop2.6.tgz
解压spark服务文件即可。
配置 /spark-2.0.2-bin-hadoop2.6/conf/spark-env.sh
文件,添加如下内容
export JAVA_HOME=/opt/jdk1.8.0_131 # 注意为实际JDK安装路径
export SPARK_MASTER_HOST=spark1
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.interval=1800 -Dspark.worker.cleanup.appDataTtl=604800"
- 下载解压后,如您未发现spark-env.sh文件,将带有template结尾的spark-env.sh另存一份即可
- 修改/etc/hosts文件,添加如下内容,重启操作系统生效
实际Ip地址 spark1- 如果Linux操作系统SSH端口不是默认22,需修改
/spark-2.0.2-bin-hadoop2.6/conf/spark-env.sh
文件增加export SPARK_SSH_OPTS="-p 1234"
,1234
需替换为实际的端口号。
执行./spark-2.0.2-bin-hadoop2.6/sbin/start-all.sh
脚本启动
进入到/etc/init.d
目录下,编辑一个新的脚本文件spark
cd /etc/init.d
touch spark
vi spark
spark
#!/bin/bash
#chkconfig:2345 20 90
#description:spark
#processname:spark
export JAVA_HOME=/opt/jdk1.8.0_131 <!--注意需替换为实际路径 -->
case $1 in
start) su root /opt/spark-2.0.2-bin-hadoop2.6/sbin/start-all.sh;;<!--注意需替换为实际路径 -->
stop) su root /opt/spark-2.0.2-bin-hadoop2.6/sbin/stop-all.sh;; <!--注意需替换为实际路径 -->
*) echo "require start|stop" ;;
esac
chmod +x spark
spark
为开机自启动chkconfig --add spark
spark
服务了chkconfig --list spark
在终端执行 jps
命令,输出如下信息表示启动成功
29711 Master
14737 Worker
执行./sparkspark-2.0.2-bin-hadoop2.6/sbin/stop-all.sh
脚本停止
- 若
spark
为集群部署,则在/sparkspark-2.0.2-bin-hadoop2.6/conf/slaves
文件中增加两个节点服务器名即可- 有关Spark的更多信息请参见http://spark.apache.org/