spark支持的分布式部署方式中哪个是错误的

2025-05-18 15:16:03
推荐回答(1个)
回答1:

目前Apache Spark支持三种分布式部署方式,分别是standalone、spark on mesos和
spark on YARN,其中,第一种类似于MapReduce

1.0所采用的模式,内部实现了容错性和资源管理,后两种则是未来发展的趋势,部分容错性和资源管理交由统一的资源管理系统完成:让Spark运行在一个通用的资源管理系统之上,这样可以与其他计算框架,比如MapReduce,公用一个集群资源,最大的好处是降低运维成本和提高资源利用率(资源按需分配)。本文将介绍这三种部署方式,并比较其优缺点。