失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > spark中用println输出一些控制信息

spark中用println输出一些控制信息

时间:2022-03-21 17:27:07

相关推荐

spark中用println输出一些控制信息

部分代码如下:

def main(args: Array[String]): Unit = {Logger.getLogger("org").setLevel(Level.OFF)Logger.getLogger("akka").setLevel(Level.OFF)Logger.getRootLogger().setLevel(Level.ERROR) //这里是用来抑制一大堆log信息的. val spark = SparkSession.builder.appName("Intro").config("spark.master", "local").getOrCreate();spark.sparkContext.setLogLevel("ERROR")val hadoopConf = spark.sparkContext.hadoopConfigurationhadoopConf.set("fs.hdfs.impl", classOf[org.apache.hadoop.hdfs.DistributedFileSystem].getName)hadoopConf.set("fs.file.impl", classOf[org.apache.hadoop.fs.LocalFileSystem].getName)import spark.implicits._val rdd= spark.sparkContext.parallelize(List("------------先大致看下数据-----------------"))rdd.collect().foreach(println)

就是上面代码的最后两句,这两句就可以像一般print语句一样来使用了.

注意,直接println是会被spark忽略的,并不会输出到控制台上面

如果觉得《spark中用println输出一些控制信息》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。