![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Scala
文章平均质量分 69
qq_23660243
这个作者很懒,什么都没留下…
展开
-
Scala协变逆变上界下界
这里介绍一下关于scala中的协变逆变的有关知识,因为真的每次碰见都懵逼的感觉很难受。此处我不会对比Java中的相关协变逆变,只针对scala的进行讲解。首先我说一下协变,所谓协变,白话文就是说让你的能够使用比原始定义类型的子类。不要懵逼,光看字我本人也看不懂,那么我们来通过实际的例子来讲解一下,首先上代码:/** * Created by mahuichao on 16/8/4.原创 2016-08-04 10:33:12 · 823 阅读 · 0 评论 -
Spark源码解析(二)
这次继续上次的地方,我这里只挑我个人感觉不有意义的方法来讲,有些是内部的private方法,有些是展现给我们的外部方法。这里主要讲的方法是他的内部方法withScope,方法如下:/** * Execute a block of code in a scope such that all new RDDs created in this body will * be part of t原创 2016-07-22 10:05:23 · 1196 阅读 · 0 评论 -
Spark源码解析(一)
RDD之getNarrowAncestors内部方法分析最近开始spark的源码攻关,其实看源码一直是我最怕的东西,因为太多、太杂、太深导致不能够很好的把我脉络导致每次最后都放弃。有人跟我说看源码可以阶段性一个方法一个方法的去学习,去看,每天积累一点总会成功,那么今天开始我的第一天spark源码分析。我这里从spark最基本的RDD中的方法说起,我感觉这样会更容易一些。同时我只对其中感觉比原创 2016-07-14 14:43:30 · 800 阅读 · 0 评论 -
Spark算子reduceByKey深度解析
最近经常使用到reduceByKey这个算子,懵逼的时间占据多数,所以沉下心来翻墙上国外的帖子仔细过了一遍,发现一篇不错的,在此加上个人的理解整体过一遍这个算子,那么我们开始:国外的大牛一上来给出这么一句话,个人感觉高度概括了reduceByKey的功能:Spark RDD reduceByKey function merges the values for each key using原创 2016-05-17 13:44:45 · 50593 阅读 · 12 评论 -
scala本地wordcount的程序编写
主要是在本地编写一个计算文件中单词出现次数的工具,一下是代码:import scala.actors.{Future, Actor}import scala.collection.mutableimport scala.collection.mutable.{ListBuffer, ArrayBuffer}import scala.io.Source/** * mhc * Cre原创 2016-05-12 13:34:56 · 3099 阅读 · 0 评论 -
Scala 拿取网页源码简单匹配Demo
最近学习scala,个人感觉学习最好的方式就是多做例子,今天这里只使用scala获取网页源码,并使用最最简单的正则匹配,主要是知道这个意思,以下是代码:package com.mhcimport scala.collection.mutableimport scala.io.Source/** * Created by Administrator on 2016/5/9. */原创 2016-05-09 23:40:15 · 1670 阅读 · 0 评论