试试在spark-env.sh中设置:
export
SPARK_MASTER_IP=127.0.0.1
export
SPARK_LOCAL_IP=127.0.0.1
看conf下的配置文件 spark-env.sh 和 spark-defaults.conf。
这个问题我遇到过,是集群内的各个节点没有正确配置,报错的那台服务器的配置文件的ip配错了。
在页面(:8080)上应该是看不到他的。
首先查看ssh是否能够免密码登陆,一步一步来,确保每个步骤都没有问题
http://pan.baidu.com/s/1gf6zf1L
具体参考里面的文档:Spark集群搭建与测试ubuntu16.04