linux上运行spark完成图计算引擎的demo(java代码)

1、安装spark和hadoop的配置

自行百度

2、编写代码


@Slf4j
public class HelloGraphx {
    public static void main(String[] args) {
        // TODO Auto-generated method stub
        SparkConf conf = new SparkConf()
                .setAppName("Graphx Learning")
                .setMaster("spark://xxx:7077")
                .set("spark.driver.host","xxx.xxx.xxx.xxx");
                //xxx 修改你的ip

        JavaSparkContext sc = new JavaSparkContext(conf);
        ClassTag<String> stringTag = scala.reflect.ClassTag$.MODULE$.apply(String.class);
        List<Edge<String>> edges = new ArrayList<>();
        edges.add(new Edge<String>(1L, 2L, "Friend1"));
        edges.add(new Edge<String>(1L, 4L, "Friend2"));
        edges.add(new Edge<String>(2L, 4L, "Friend3"));
        edges.add(new Edge<String>(3L, 1L, "Friend4"));
        edges.add(new Edge<String>(3L, 4L, "Friend5"));
        JavaRDD<Edge<String>> edgesRDD = sc.parallelize(edges);
        Graph<String, String> graph = Graph.
                         fromEdges(edgesRDD.rdd(), "", StorageLevel.MEMORY_ONLY(),
                        StorageLevel.MEMORY_ONLY(), stringTag, stringTag);
        List<Edge<String>> e = graph.edges().toJavaRDD().collect();
        System.out.println(e);
        log.info("当前执行完成:{},执行的graph:{}",e,graph);
    }
}

3、打jar包,放到hdfs上面

4、运行

进入spark的bin目录执行
./spark-submit --class com.xxx.graphx.HelloGraphx --master spark://xxx.xx.xxx.xxx:7077 /root/hadoop-1.0-SNAPSHOT.jar

5、执行结果

请添加图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值