spark的安装部署就不详细介绍了 详见http://blog.csdn.net/zwx19921215/article/details/41821147
1,编写测试类
package com.yjl;
import spark.Spark;
public class SparkInterface {
public static void main(String[] args) {
try{
Spark.port(7188);
Spark.post("/*", (request, response) -> {
System.out.println(request.body());
return request.body();
});
}
catch (Exception e){
System.out.println("server run fail"+e);
}
}
}
2,将写好的类打成jar包,注意测试类
Spark.post("/*", (request, response) -> {
为Lambda表达式,所以要用jdk1.8进行编译。运行spark的环境也需要是jdk1.8
3,将打好的jar包放到安装有spark的机器上。
4,运行jar包
spark-submit --master spark://192.168.70.133:7077 --class com.yjl.SparkInterface --name sparktest --jars spark-core-2.5.5.jar,jetty-server-9.3.6.v20151106.jar,jetty-util-9.3.6.v20151106.jar,javax.servlet-api-3.1.0.jar,jetty-http-9.3.6.v20151106.jar,jetty-io-9.3.6.v20151106.jar,jetty-websocket-7.6.15.v20140411.jar,websocket-server-9.3.6.v20151106.jar SparkInterface.jar
注意:微服务需要的依赖包也需要上传到放jar包的位置,这样才可以调用,
5,大功告成,可以访问192.168.70.133:7188查看效果,访问方式要和测试类上规定的方式一样,这里是Spark.post所以要用post方式访问