以下有关spark shell的叙述哪一项是错误的?
选项:
A:
要想启动使用Scala语言的Spark shell,用cd命令进入 bin目录(也可以把bin目录设置到path环境变量中),然后输入spark-shell即可
B:
可以使用spark shel将一个文本文件读入为DataFrame
C:
退出Spark shell,可以按下Ctri-Q
D:
在Spark shell中也可以使用import语句
要想启动使用Scala语言的Spark shell,用cd命令进入 bin目录(也可以把bin目录设置到path环境变量中),然后输入spark-shell即可
可以使用spark shel将一个文本文件读入为DataFrame
退出Spark shell,可以按下Ctri-Q
在Spark shell中也可以使用import语句
以下文字与答案无关
提示:有些试题内容 显示不完整,文字错误 或者 答案显示错误等问题,这是由于我们在扫描录入过程中 机器识别错误导致,人工逐条矫正总有遗漏,所以恳请 广大网友理解。
shell函数其实是一组命令或语句的集合
B:shell函数名在前脚本中不可以重复
C:在shell函数内部通过“$0,$1,$2...”获取传递进来的参数
D:shell函数执行完毕后,可以使用return语句提前退出
dataframe数据处理不在内存中
B:dataframe有表头
C:dataframe的创建接口不同
D:dataframe可以使用sql语言
Spark Streaming是Spark的核心子框架之一。
B:Spark Streaming具有可伸缩、高吞吐量、容错能力强等特点。
C:Spark Streaming处理的数据源可以来自Kafka。
D:Spark Streaming不能和Spark SQL、Mllib、GraphX无缝集成。
Spark SQL
B:Spark Streaming
C:Spark MLilb
D:Spark Graphx
show()
B:map()
C:toDF()
D:printSchema()
在shell脚本中定义函数时,可以使用function关键字,也可以不使用
B:函数名后的括号可以省略
C:若函数中不使用retun关键字设置返回值,则函数返回其中最后一条命令的执行结果
D:以上各选项都正确
spark sql Release 版本
B:引入 Spark R
C:DataFrame
D:支持动态资源分配
show()
B:map() C:toDF()
D:printSchema()
Spark Streaming无法实现毫秒级的流计算,而Storm可以实现毫秒级响应
Spark Streaming可以实现毫秒级的流计算,而Storm无法实现毫秒级响应
C:Spark Streaming和Storm都可以实现毫秒级的流计算
Spark Streaming和Storm都无法实现毫秒级的流计算
Spark on Mesos模式
B:Spark on YARN模式
C:Spark on Kubernetes模式
D:Local模式
HiveContext
B:SparkSession
C:SQLContext
D:SparkContext
standalone
B:Spark on Mesos
C:Spark on YARN
D:Local
HiveContext
B:SparkSession
C:SQLContext D:SparkContext
readonly
B:export
C:expr
D:read
Spark Streaming的基本原理是将实时输入数据流以时间片为单位进行拆分,然后采用Spark引擎以类似批处理的方式处理每个时间片数据
B:Spark Streaming最主要的抽象是DStream(Discretized Stream,离散化数据流),表示连续不断的数据流
Spark Streaming可整合多种输入数据源,如Kafka、Flume、HDFS,甚至是普通的TCP套接字
Spark Streaming的数据抽象是DataFrame
A、Spark Streaming
B、MLlib
C、GraphX
D、Flink
Spark的运算效率是Hadoop的10倍
B:Spark的运算效率是Hadoop的100倍
C:Hadoop的运算效率是Spark的100倍
D:Hadoop的运算效率是Spark的10倍