spark-shell启动报错如下。请问该如何解决。多谢帮助!

2025-04-06 00:54:15
推荐回答(3个)
回答1:

试试在spark-env.sh中设置:

export
SPARK_MASTER_IP=127.0.0.1

export
SPARK_LOCAL_IP=127.0.0.1

回答2:

看conf下的配置文件 spark-env.sh 和 spark-defaults.conf。
这个问题我遇到过,是集群内的各个节点没有正确配置,报错的那台服务器的配置文件的ip配错了。
在页面(:8080)上应该是看不到他的。

回答3:

首先查看ssh是否能够免密码登陆,一步一步来,确保每个步骤都没有问题
http://pan.baidu.com/s/1gf6zf1L
具体参考里面的文档:Spark集群搭建与测试ubuntu16.04