- 博客(7)
- 资源 (1)
- 收藏
- 关注
转载 JDK版本任意切换
终端输入:/usr/libexec/java_home -V 查看2个版本最终安装目录:JDK 1.7:/Library/Java/JavaVirtualMachines/jdk1.7.0_80.jdk/Contents/HomeJDK 1.8:/Library/Java/JavaVirtualMachines/jdk1.8.0_131.jdk/Contents/Home一,编辑bash_...
2018-10-24 14:40:31 361
原创 spark1.63升级到spark2.3.1环境变量配置
由于spark2.3需要jdk1.8的支持,因此spark-submit与spark-sql需要指定jdk版本,具体方式见测试用例1.修改个人用户配置文件.bashrc ,注释以前的spark环境与java环境,添加vi ~/.bashrc #export SPARK_HOME=/opt/core/spark-1.6.3-bin-hadoop2.6 #export JAV...
2018-10-23 21:21:15 860
转载 搭建Spark源码研读和代码调试的开发环境
转载自https://github.com/linbojin/spark-notes/blob/master/ide-setup.md搭建Spark源码研读和代码调试的开发环境工欲善其事,必先利其器,第一篇笔记介绍如何搭建源码研读和代码调试的开发环境。 一些必要的开发工具,请自行提前安装:scala 2.11.8 sbt 0.13.12 maven 3.3.9 git 2....
2018-10-23 20:06:07 366
转载 Cannot find JRE '1.7'. You can specify JRE to run maven goals in Settings
这个问题通过网上找的下面的两个地方改正后依然不行。还得改一个地方: 这个问题我遇到的时候很头疼,知道问题在那里,很多百度说改tomcat,他们说的不错,或许有那部分原因,可惜我的那个很久之前就改好。其实就两个地方要改正: 如果打包还不行就直接用打包命令吧:mvn package -DskipTests...
2018-10-23 19:08:59 2473
原创 spark2.3.1+jdk1.8向下兼容1.7(生产机器为jdk1.7)
1、打包<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>${spark.version}</version> <!
2018-10-23 16:22:29 1503
原创 spark运行时出现错误Caused by: java.lang.ClassNotFoundException: org.apache.spark.rdd.RDD
原因:自己在pom文件中加入 <scope>provided</scope>此标签表示编译环境可用,运行时则不可用,主要是在 打包时不将这些依赖打进来,因为服务器上有,以免包过大解决方案:本地运行时注销掉<scope>provided</scope>,reimport maven projects Exception in th...
2018-10-23 16:15:22 13080 1
原创 给孩子积极心理暗示的语句实操
1、场景:摔倒 积极暗示:摔跤没什么大不了,自己应该勇敢地爬起来2、场景:发呆 积极暗示:我的孩子不是在发呆,而是在沉思,在想问题,他将来一定是一位了不起的大学教授3、场景:装扮 积极暗示:真像大博士4、场景:在别人面前当着孩子面夸孩子 积极暗示:1)铄铄知道蔬菜有营养,所以即使碰到不喜欢也愿意吃一点 ...
2018-10-07 23:01:13 3306
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人