刚学习spark,想上传文件给hdfs,是不是需要hadoop然后java编程这样?是用eclip

2025-04-07 10:11:55
推荐回答(1个)
回答1:

spark会把hdfs当做一个数据源来处理, 所以数据存储都要做, 之后编程是从Hadoop改成spark就可以了. 是否用eclipse无所谓, 只要能编译运行就可以