1.连接mysql
--driver-class-path mysql-connector-java-5.1.21.jar 在数据库中,SET GLOBAL binlog_format=mixed;
2.Spark中 使用Hive的udf
同样使用—jars 才行
3.Spark jupyter使用
https://www.jb51.net/article/163641.htm
https://my.oschina.net/albert2011/blog/754174
使用jupyter-notebook --ip hostname -i
来启动
4.Spark使用hive的orc解析格式
spark.sql.hive.convertMetastoreOrc=true
使用spark写入hive表中的数据,可能会出现空指针问题或者数据越界问题,问题原因是spark的元数据解析问题,而不是hive的元数据解析问题
5.row_number排序算子的使用
import org.apache.spark.sql.expressions.Window
import org.apache.spark.sql.functions.ro