RDD在Spark中运行时,将作业的DAG划分成不同的Stage的阶段是()。 -----------
选项:
A:
RDD Objects
B:
DAGScheduler
C:
TaskScheduler
D:
Worker
RDD在Spark中运行时,将作业的DAG划分成不同的Stage的阶段是()。 -----------
RDD Objects
DAGScheduler
TaskScheduler
Worker
以下文字与答案无关
提示:有些试题内容 显示不完整,文字错误 或者 答案显示错误等问题,这是由于我们在扫描录入过程中 机器识别错误导致,人工逐条矫正总有遗漏,所以恳请 广大网友理解。
RDD Objects
B:DAGScheduler
C:TaskScheduler
D:Worker
RDD Objects
B:DAGScheduler
C:TaskScheduler
D:Worker
RDD在Spark中运行时,将作业的DAG划分成不同的Stage的阶段是()。 -----------
选项: A:RD Objects
B:DAGScheduler
C:TaskScheduler
D:Worker
show()
B:map() C:toDF()
D:printSchema()
show()
B:map()
C:toDF()
D:printSchema()
窄依赖
B:宽依赖
C:窄依赖和宽依赖
D:以上选项均错误
分区
B:数据块
C:Task
D:Job
MEMORY_ONLY
B:MEMORY_AND_DISK
C:DISK_ONLY
D:MEMORY_ONLY_SER
RDD
B:DataFrame
C:Spark SQL
D:Object
foreach(func)
B:collect()
C:take(n)
D:reduceByKey()
dataframe数据处理不在内存中
B:dataframe有表头
C:dataframe的创建接口不同
D:dataframe可以使用sql语言
filter()
B:groupByKey()
C:reduceByKey()
D:map()
在RDD编程中需要生成一个SparkContext对象
在Spark SQL编程中需要生成一个SparkSession对象
C:运行一个Spark Streaming程序,就需要首先生成一个StreamingContext对象
D:在Spark SQL编程中需要生成一个StreamingContext对象
可分区
B:可修改
C:可序列化
D:可持久化
Spark采用textFile()方法来从文件系统中加载数据创建RDD
B:textFile()方法把文件的URI作为参数,这个URI可以是: 本地...
Driver program
B:spark master
C:worker node
D:Cluster manager