Maven+Jetty+JReBel 配置热启动

eclipse jetty plugin 的热部署,会内存溢出,在MAC下开发还会CPU爆满假死;jetty自带的reload方案每次修改class,都会重启spring application,速度极慢。 JRebel (javarebel)热部署方案,目前支持大部分主流的 Java 容器,配置也相当简单,以下是JReBel  配置步骤:

下载 JRebel 包(破解版)地址 
http://download.csdn.net/detail/thly1234/6840501 

 

jrebel配置

jrebel毋须繁琐的配置,把jrebel-5.6.3-crack.zip解压放在磁盘目录即可。(笔者路径为:D:\coding-life\IDE\jrebel\jrebel-5.6.3-crack)该路径后续需要引用到
eclipse 内run配置;
1.找到maven run配置 界面

 



 
${project_loc}是eclipse的一个配置参数,即对当前选中的项目的路径执行Maven的jetty:run命令
Skip Test 表示启动项目是跳过Test实例测试
Resolve Workspace artifacts 表示在POM的依赖中,如果有工作区的依赖,则从工作区找到依赖,而不需要从Maven库中寻找或下载依赖包(该配置可支持项目在工作区中的依赖项目类修改的热部署)
2.jre配置:


 
简单配置:
-noverify
-javaagent:E:\jrebel-6.1.1-agent-crack\jrebel.jar
-Drebel.spring_plugin=true
-Xms256M -Xmx512M -XX:MaxPermSize=256m
-Drebel.profile_logfile=D:/jrebel-profile.log
比较全的配置:
-noverify 
-javaagent:D:\coding-life\IDE\jrebel\jrebel-5.6.3-crack\jrebel.jar 
-Drebel.spring_plugin=true
-Drebel.struts2-plugin=true
-Xms256M -Xmx512M -XX:MaxPermSize=256m
-Drebel.profile_logfile=D:/jrebel-profile.log
-Drebel.dirs=D:\coding-life\workspace\insuranceService\target\classes
 
 
配置说明:
-noverify 
-javaagent:D:\coding-life\IDE\jrebel\
jrebel-5.6.3-crack\ jrebel.jar 

-Drebel.spring_plugin=true
-Drebel.struts2-plugin=true
-Xms256M -Xmx512M -XX:MaxPermSize=256m
-Drebel.profile_logfile=D:/jrebel-profile.log
-Drebel.dirs=D:\coding-life\workspace\
insuranceService\target\classes
技术分享
Drebel.dirs 是maven依赖的子项目依赖如图:;
-javaagent: 后面跟上的是jrebel.jar的存放路径, 路径中不允许包含中文、
空格、小数点等特殊符号
-Drebel.spring_plugin=true 表示为启动对spring热部署的支持,
默认为true
-Drebel.struts2-plugin=true 表示为启动对struts2热部署的支持,
默认为false,如果使用springmvc,该项可部配置
最后的内存配置按各自配置需要配置
3.common配置


 
 
选择Debug表示在工具栏的Debug按钮下拉中可直接选择到该配置按钮,如果需要在Run中看到按钮,也可勾选Run
完美解决 mavne jetty 热部署
 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Hive on Spark是一种将Hive与Spark结合起来使用的方式,可以提高数据处理的效率和性能。下面是配置Hive on Spark的步骤: 1. 配置Maven 首先需要安装Maven,并配置好环境变量。可以在Maven官网下载最新版本的Maven。 2. 编译Spark 下载Spark源码,使用Maven编译Spark。在Spark源码目录下执行以下命令: mvn -DskipTests clean package 编译完成后,在target目录下可以找到编译好的Spark包。 3. 配置Hive 下载Hive源码,使用Maven编译Hive。在Hive源码目录下执行以下命令: mvn clean package -DskipTests -Pspark 编译完成后,在packaging/target目录下可以找到编译好的Hive包。 4. 配置Spark和Hive的环境变量 在.bashrc或.bash_profile文件中添加以下环境变量: export SPARK_HOME=/path/to/spark export HIVE_HOME=/path/to/hive 5. 配置Hive on Spark 在Hive的conf目录下创建hive-site.xml文件,并添加以下配置: <property> <name>hive.execution.engine</name> <value>spark</value> </property> 6. 启动Hive on Spark 使用以下命令启动Hive on Spark: $HIVE_HOME/bin/hive --service sparkthriftserver 启动成功后,可以使用JDBC连接到Hive on Spark,并执行SQL语句。 ### 回答2: Hive on Spark是将Hive与Spark结合起来使用的一种方式,通过Hive on Spark可以在Spark执行引擎上执行Hive的SQL语句,实现更好的性能和可伸缩性。在使用Hive on Spark之前,需要先进行一些配置和编译工作。 首先是配置Maven,需要在pom.xml文件中添加Spark和Hive on Spark的依赖。在配置Spark时,需要注意Spark的版本与Hive on Spark的版本的匹配,以避免出现兼容性问题。接下来需要在Spark和Hive的配置文件中,分别配置Spark的Master地址和Hive的元数据存储地址。 然后进行Spark的编译工作,可以通过maven命令将spark源代码打包成jar文件。在编译过程中,需要根据实际情况添加必要的Spark插件和依赖项,以确保编译成功并与Hive on Spark兼容。 最后进行Hive的配置工作,需要在hive-site.xml文件中配置Hive on Spark的参数,如spark.master,spark.executor.memory等参数,以达到最优的运行效果。 总之,Hive on Spark的配置涉及多个方面,需要正确配置Maven依赖、Spark和Hive配置、进行Spark的编译和进行Hive的参数配置,才能使Hive on Spark正常运行。配置过程中需要注意兼容性问题,以避免出现不必要的错误。 ### 回答3: Hive on Spark是基于Apache Spark的开源数据处理平台。用于支持对Hive进行实时查询和复杂分析的工具。为了配置Hive on Spark,需要以下步骤: 1.配置Maven 在进行Hive on Spark配置之前,需要先安装MavenMaven是一个用于管理Java项目的构建工具,它可以轻松地管理spark-core和spark-sql等包,从而方便Hive on Spark的使用。 2.编译Spark 从Spark官网下载源代码后,运行以下命令进行编译: ``` build/mvn -DskipTests clean package ``` 以上命令会跳过所有测试,并将代码打包成可执行的JAR文件。 3.配置Hive 在进行Hive on Spark配置前,需要先安装Hadoop和Hive。安装好后,进行以下配置: 在hive-site.xml文件中添加以下配置: ``` <property> <name>hive.execution.engine.spark</name> <value>true</value> </property> <property> <name>spark.master</name> <value>local[*]</value> </property> <property> <name>spark.executor.memory</name> <value>2g</value> </property> ``` 4.将Spark包添加到Hive中 在Hive服务器上,进入Hive源代码目录,执行以下命令来将Spark包添加到Hive中: ``` ./build/dist/bin/addSbtPlugin.sh ``` 运行上述命令后,Spark包将被添加到Hive中。 5.使用Hive on Spark 现在,可以启动Hive并开始使用Hive on Spark。运行以下命令: ``` hive --hiveconf hive.execution.engine=spark ``` 以上就是Hive on Spark配置的过程。Maven管理Spark编译过程的包便于Hive on Spark使用和扩展。通过这些步骤,您可以轻松地开始使用Hive on Spark,从而帮助您更好地分析和管理数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值