一、当然是下载啦!
提供下载地址:http://www.igniterealtime.org/downloads/source.jsp
这里讲的是不走寻常路的直接下载源码,而不是通过github或者svn~所以直接上图了。
既不想下载github又不想下载svn怎么办呢?看到github的url了吗?
Openfire:
git clone https://github.com/igniterealtime/Openfire.git
Smack:
git clone https://github.com/igniterealtime/Smack.git
Spark:
git clone https://github.com/igniterealtime/Spark.git
答案就在这喽。首先复制Spark后的URL地址即:
https://github.com/igniterealtime/Spark.git
粘贴到浏览器!
二、下载好压缩包之后,打开eclipse安装编译
1. 在Project Explorer中,右键New->Project
2.选择Java Project from Existing Ant Buildfile, 然后点击Next.
3.选择Browse,选择解压缩后的Spark(建议解压缩后就改项目名)下build/build.xml
4.点击Finish,就完成了(我的已经成功导入了,所以无法选中)
5.导入之后,你会发现,它在项目源码包中新建了.settings, .project,.classpath三个文件
6. 报错处理,因为缺少jar包bcprov-jdk13-132.jar
点击下载之后,放入到build/lib/merge下,然后build path->Configure Build Path-> Add External JARs,加入就可以了
三、生成Spark
1.点击Window->Show View->Other->Ant->Ant
2.在Ant控制台下,右键Add Buildfiles,选择Spark下build.xml,双击Spark下release[default]
3. 最终会出现Build Successful
四、配置Spark运行环境
2. 点击“Main”
Name填写:Spark
Project:Spark(选择Spark工程)
Main class:org.jivesoftware.launcher.Startup(启动类)
3.点击Classpath标签页
选择User Entries ,使得Advanced..按钮变的可用.点击Advanced按钮.在弹出来的Advanced Options窗口,选择Add Folders,再点OK,在Folder Selection窗口选择
src/resources
src/plugins/fastpath/src/resources
点击OK
-
Arguments:VM arguments 中加入
-Djava.library.path=build/lib/dist/windows
引入平台运行环境,根据当前开发的运行环境进行选择,如 win32 win64 Linux。按照自身情况引入相应的 dll 或者 so 等。必须添加。没有的话,windows 平台下会抛出com.lti.civil.CaptureException
异常-Dplugin=src/plugins/fastpath/plugin.xml
引入相应的插件配置 xml。-Ddebug.mode=true
开启 Debug 模式,按需添加-
-Dsmack.debugEnabled=true
开启 Smack Debug 模式,按需添加。添加后,在 Spark 启动后,同时启动 Smack 分析界面,可以用来记录分析 Spark 通信过程的消息包。
1
2
3
4
-Djava.library.path=build/lib/dist/windows
-Dplugin=src/plugins/fastpath/plugin.xml
-Ddebug.mode=true
-Dsmack.debugEnabled=true
src/resources
src/plugins/fastpath/src/resources
Arguments:VM arguments 中加入
-Djava.library.path=build/lib/dist/windows
引入平台运行环境,根据当前开发的运行环境进行选择,如 win32 win64 Linux。按照自身情况引入相应的 dll 或者 so 等。必须添加。没有的话,windows 平台下会抛出com.lti.civil.CaptureException
异常-Dplugin=src/plugins/fastpath/plugin.xml
引入相应的插件配置 xml。-Ddebug.mode=true
开启 Debug 模式,按需添加-
-Dsmack.debugEnabled=true
开启 Smack Debug 模式,按需添加。添加后,在 Spark 启动后,同时启动 Smack 分析界面,可以用来记录分析 Spark 通信过程的消息包。1 2 3 4
-Djava.library.path=build/lib/dist/windows -Dplugin=src/plugins/fastpath/plugin.xml -Ddebug.mode=true -Dsmack.debugEnabled=true
设置完毕后,我们就可以按照该 Run config 进行 Run 或者 Debug 了。运行后,就可以看到 Spark 的登录界面了。
五、可能遇到的问题
JRE not compatible with workspace .class file compatibility
解决办法:
bin
目录拒绝访问的异常,原因是 Spark 自带的一个插件LanguagePlugin
会在试图在运行目录下面寻找 spark.jar,但是调试时bin
目录下缺少 spark.jar。该问题在 spark 安装版本时不会出现,调试时可以直接忽略,或者通过下面的build release
生成target\build\lib\spark.jar
,然后拷贝至 Eclipse 的项目bin(
本地)目录下面
。