大数据全系列 教程
1869个小节阅读:467k
目录
408考研
JAVA全系列 教程
面向对象的程序设计语言
Python全系列 教程
Python3.x版本,未来主流的版本
人工智能 教程
顺势而为,AI创新未来
大厂算法 教程
算法,程序员自我提升必经之路
C++ 教程
一门通用计算机编程语言
微服务 教程
目前业界流行的框架组合
web前端全系列 教程
通向WEB技术世界的钥匙
大数据全系列 教程
站在云端操控万千数据
AIGC全能工具班
A A
White Night
输出操作指定了对流数据经转化操作得到的数据所要执行的操作(例如把结果方入外部数据库或输出到屏幕上)。与RDD中的惰性求值类似,如果一个DStream及其派生出的DStream都没有被执行输出操作,那么这些DStream就都不会被求值。如果StreamingContext
中没有设定输出操作,整个context就都不会启动。
输出操作如下:
print():在运行流程序的驱动结点上打印DStream中每一批次数据的最开始10个元素。这用于开发和调试。
saveAsHadoopFiles(prefix, [suffix]):将Stream中的数据保存为 Hadoop files. 每一批次的存储文件名基于参数中的为"prefix-TIME_IN_MS[.suffix]"。Python API 中目前不可用。
saveAsTextFiles(prefix, [suffix]):以text文件形式存储这个DStream的内容。每一批次的存储文件名基于参数中的prefix和suffix。”prefix-Time_IN_MS[.suffix]”。
saveAsObjectFiles(prefix, [suffix]):以Java对象序列化的方式将Stream中的数据保存为 SequenceFiles . 每一批次的存储文件名基于参数中的为"prefix-TIME_IN_MS[.suffix]". Python中目前不可用。
foreachRDD(func):这是最通用的输出操作,即将函数 func 用于产生于 stream的每一个RDD。其中参数传入的函数func应该实现将每一个RDD中数据推送到外部系统,如将RDD存入文件或者通过网络将其写入数据库。
通用的输出操作foreachRDD(),它用来对DStream中的RDD运行任意计算。这和transform() 有些类似,都可以让我们访问任意RDD。在foreachRDD()中,可以重用我们在Spark中实现的所有行动操作。比如,常见的用例之一是把数据写到诸如MySQL的外部数据库中。
实时效果反馈
1. 关于SparkStreaming输出描述错误的选项是:
A print()
在运行流程序的驱动结点上打印DStream
中每一批次数据的最开始10个元素。 这用于开发和调试。
B saveAsHadoopFiles(prefix, [suffix])
将DStream中的数据保存为 Hadoop files。
C saveAsTextFiles(prefix, [suffix])
以text文件形式存储这个DStream的内容,文件被存储到 HDFS中。
D foreachRDD(func)
这是最通用的输出操作,即将函数 func 用于产生于 stream的每一 个RDD。其中参数传入的函数func应该实现将每一个RDD中数据推送到外部系统,如 将RDD存入文件或者通过网络将其写入数据库。
答案:
1=>C 文件保存到本地磁盘上。