以下文字与答案无关
提示:有些试题内容 显示不完整,文字错误 或者 答案显示错误等问题,这是由于我们在扫描录入过程中 机器识别错误导致,人工逐条矫正总有遗漏,所以恳请 广大网友理解。
SQL
B:Shark
C:Spark RDD
D:MapReduce
Spark SQL
B:Spark Streaming
C:Spark MLilb
D:Spark Graphx
HiveContext
B:SparkSession
C:SQLContext D:SparkContext
在RDD编程中需要生成一个SparkContext对象
在Spark SQL编程中需要生成一个SparkSession对象
C:运行一个Spark Streaming程序,就需要首先生成一个StreamingContext对象
D:在Spark SQL编程中需要生成一个StreamingContext对象
Catalyst
B:Execution
C:Parser
D:Analyzer
Catalyst
B:Execution
C:Parser
D:Analyzer
Spark Streaming是Spark的核心子框架之一。
B:Spark Streaming具有可伸缩、高吞吐量、容错能力强等特点。
C:Spark Streaming处理的数据源可以来自Kafka。
D:Spark Streaming不能和Spark SQL、Mllib、GraphX无缝集成。
show()
B:map()
C:toDF()
D:printSchema()
standalone
B:Spark on Mesos
C:Spark on YARN
D:Local
RDD在Spark中运行时,将作业的DAG划分成不同的Stage的阶段是()。 -----------
选项: A:RDD Objects
B:DAGScheduler
C:TaskScheduler
D:Worker
分区
B:数据块
C:Task
D:Job
进入Spark的入口点
B:spark的上下文
C:spark的环境配置函数
D:spark的任务设置函数
A、MLlib库从1.2版本以后分为两个包:spark.mllib和spark.ml
B、spark.mllib包含基于DataFrame的原始算法API
C、spark.mllib包含基于RDD的原始算法API
D、spark.ml则提供了基于RDD的、高层次的API
show()
B:map() C:toDF()
D:printSchema()
A、Spark Streaming
B、MLlib
C、GraphX
D、Flink
RDD在Spark中运行时,将作业的DAG划分成不同的Stage的阶段是()。 -----------
选项: A:RD Objects
B:DAGScheduler
C:TaskScheduler
D:Worker