Spark的运行架构包括A:每个工作节点上负责具体任务的执行进程 ExecutorB:运行作业任务的工作节点 Worker NodeC:集群资源管理器 Cluster ManagerD:每个应用的任务控制节点 Driver 进程 资源管理器 具体任务 发布时间:2024-05-07 19:48:26