在用scala从mysql增量抽取数据到hive中,发现在本地idea测试的时候会出现一堆日志信息看着贼难受,就一直在找办法解决
先配置一下本地hadoop
配置系统环境变量
指定用户
System.setProperty("HADOOP_USER_NAME","root")
设置日志打印级别
val sc = spark.sparkContext
sc.setLogLevel("ERROR")
把集群的这两个文件放进idea去 resources中
干干净净啦~