spark streaming -过滤黑名单

通过spark streaming实时统计过滤黑名单,稍微改动一下,可以结合到真实企业案例中

import java.util.ArrayList;
import java.util.List;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.api.java.function.PairFunction;
import org.apache.spark.streaming.Durations;
import org.apache.spark.streaming.api.java.JavaDStream;
import org.apache.spark.streaming.api.java.JavaPairDStream;
import org.apache.spark.streaming.api.java.JavaReceiverInputDStream;
import org.apache.spark.streaming.api.java.JavaStreamingContext;

import com.google.common.base.Optional;

import scala.Tuple2;

/**
 * 基于transform的实时广告计费日志黑名单过滤
 * @author Administrator
 *
 */
public class TransformBlacklist {
   
   @SuppressWarnings("deprecation")
   public static void main(String[] args) {
      SparkConf conf = new SparkConf()
            .setMaster("local[2]")
            .setAppName("TransformBlacklist");  
      JavaStreamingContext jssc = new JavaStreamingContext(conf, Durations.seconds(5));
      
      // 用户对我们的网站上的广告可以进行点击
      // 点击之后,是不是要进行实时计费,点一下,算一次钱
      // 但是,对于那些帮助某些无良商家刷广告的人,那么我们有一个黑名单
      // 只要是黑名单中的用户点击的广告,我们就给过滤掉
      
      // 先做一份模拟的黑名单RDD
      List<Tuple2<String, Boolean>> blacklist = new ArrayList<Tuple2<String, Boolean>>();
      blacklist.add(new Tuple2<String, Boolean>("tom", true));  
      final JavaPairRDD<String, Boolean> blacklistRDD = jssc.sc().parallelizePairs(blacklist);
      
      // 这里的日志格式,就简化一下,就是date username的方式 nc -l -p 8888 127.0.0.1
      JavaReceiverInputDStream<String> adsClickLogDStream = jssc.socketTextStream("127.0.0.1", 6666);
      adsClickLogDStream.print();
      
      // 所以,要先对输入的数据,进行一下转换操作,变成,(username, date username)
      // 以便于,后面对每个batch RDD,与定义好的黑名单RDD进行join操作
      JavaPairDStream<String, String> userAdsClickLogDStream = adsClickLogDStream.mapToPair(
            
            new PairFunction<String, String, String>() {

               private static final long serialVersionUID = 1L;

               @Override
               public Tuple2<String, String> call(String adsClickLog)
                     throws Exception {
                  return new Tuple2<String, String>(
                        adsClickLog.split(" ")[1], adsClickLog);
               }
               
            });
      
      // 然后,就可以执行transform操作了,将每个batch的RDD,与黑名单RDD进行join、filter、map等操作
      // 实时进行黑名单过滤
      JavaDStream<String> validAdsClickLogDStream = userAdsClickLogDStream.transform(
            
            new Function<JavaPairRDD<String,String>, JavaRDD<String>>() {

               private static final long serialVersionUID = 1L;

               @Override
               public JavaRDD<String> call(JavaPairRDD<String, String> userAdsClickLogRDD)
                     throws Exception {
                  // 这里为什么用左外连接?
                  // 因为,并不是每个用户都存在于黑名单中的
                  // 所以,如果直接用join,那么没有存在于黑名单中的数据,会无法join到
                  // 就给丢弃掉了
                  // 所以,这里用leftOuterJoin,就是说,哪怕一个user不在黑名单RDD中,没有join到
                  // 也还是会被保存下来的
                  JavaPairRDD<String, Tuple2<String, Optional<Boolean>>> joinedRDD = 
                        userAdsClickLogRDD.leftOuterJoin(blacklistRDD);
                  
                  // 连接之后,执行filter算子
                  JavaPairRDD<String, Tuple2<String, Optional<Boolean>>> filteredRDD = 
                        joinedRDD.filter(
                              
                              new Function<Tuple2<String, 
                                    Tuple2<String,Optional<Boolean>>>, Boolean>() {

                                 private static final long serialVersionUID = 1L;

                                 @Override
                                 public Boolean call(
                                       Tuple2<String, 
                                             Tuple2<String, Optional<Boolean>>> tuple)
                                       throws Exception {
                                    // 这里的tuple,就是每个用户,对应的访问日志,和在黑名单中
                                    // 的状态
                                    if(tuple._2._2().isPresent() && 
                                          tuple._2._2.get()) {  
                                       return false;
                                    }
                                    return true;
                                 }
                                 
                              });
                  
                  // 此时,filteredRDD中,就只剩下没有被黑名单过滤的用户点击了
                  // 进行map操作,转换成我们想要的格式
                  JavaRDD<String> validAdsClickLogRDD = filteredRDD.map(
                        
                        new Function<Tuple2<String,Tuple2<String,Optional<Boolean>>>, String>() {

                           private static final long serialVersionUID = 1L;

                           @Override
                           public String call(
                                 Tuple2<String, Tuple2<String, Optional<Boolean>>> tuple)
                                 throws Exception {
                              return tuple._2._1;
                           }
                           
                        });
                  
                  return validAdsClickLogRDD;
               }
               
            });
      
      // 打印有效的广告点击日志
      // 其实在真实企业场景中,这里后面就可以走写入kafka、ActiveMQ等这种中间件消息队列
      // 然后再开发一个专门的后台服务,作为广告计费服务,执行实时的广告计费,这里就是只拿到了有效的广告点击
      validAdsClickLogDStream.print();
      
      jssc.start();
      jssc.awaitTermination();
      jssc.close();
   }
   
}

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark Streaming 可以通过使用 DStream.transform() 方法和广播变量来过滤黑名单。具体步骤如下: 1. 创建一个黑名单列表,可以从文件或数据库中读取。 2. 将黑名单列表广播到所有的 Spark Streaming Executor 上。 3. 在 DStream.transform() 方法中,使用广播变量来过滤黑名单。 4. 返回过滤后的 DStream。 示例代码如下: ```python # 创建黑名单列表 blacklist = ["user1", "user2", "user3"] # 广播黑名单列表到所有 Executor 上 broadcast_blacklist = sc.broadcast(blacklist) # 定义过滤函数 def filter_by_blacklist(rdd): # 获取广播变量中的黑名单列表 blacklist = broadcast_blacklist.value # 过滤黑名单中的用户 return rdd.filter(lambda x: x[0] not in blacklist) # 创建输入 DStream input_dstream = ssc.socketTextStream("localhost", 9999) # 过滤黑名单 filtered_dstream = input_dstream.transform(filter_by_blacklist) # 输出过滤后的 DStream filtered_dstream.pprint() # 启动 StreamingContext ssc.start() ssc.awaitTermination() ``` ### 回答2: Spark Streaming是一款流式计算引擎,与传统批处理相比,它具有低延迟、实时处理等优点。在实际应用中,我们经常需要对数据进行处理和过滤,为了应对恶意攻击、垃圾信息等问题,我们需要实时过滤黑名单中的数据。 在Spark Streaming过滤黑名单,可以采用一些类似于Spark Core的操作。具体可以分为以下几步: 1. 首先定义一个黑名单RDD,包含被屏蔽的IP地址等信息,这个RDD可以使用外部存储系统如Redis、MySQL等获取。 2. 然后从数据源中获取数据,可以使用诸如Kafka、Flume、Socket等方式。 3. 对于获取的数据,需要进行筛选,根据黑名单中的IP地址等信息过滤掉不需要的数据。这里可以使用filter等操作,将需要保留的数据进行输出。 4. 最后,将过滤后的数据进行处理和保存。 代码实现可以如下: ``` from pyspark import SparkContext from pyspark.streaming import StreamingContext sc = SparkContext(appName="BlackList") ssc = StreamingContext(sc, 5) # 5秒为一个批次 # 黑名单RDD blackList = ['1.1.1.1', '2.2.2.2', '3.3.3.3'] blackListRDD = sc.parallelize(blackList).map(lambda x: (x, True)) # 接收数据流,过滤黑名单 dataStream = ssc.socketTextStream("localhost", 9999) dataStream.filter(lambda x: x not in blackList).pprint() ssc.start() ssc.awaitTermination() ``` 这里实现了一个简单的例子,黑名单包含了三个IP地址,数据从本地socket端口获取,通过filter过滤掉了黑名单中的IP地址。可以根据实际业务需求进行修改和扩展。 总之,在Spark Streaming过滤黑名单可以采用类似于Spark Core的操作,在数据源操作、筛选过滤、处理与保存后等方面进行逐步处理和过滤。 ### 回答3: Spark Streaming是Apache Spark中的一个流处理框架,可以用来从实时流中持续接收和分析数据,然后对数据进行处理和转换。在实时流分析中,常常需要对来自特定用户或特定来源的数据进行过滤操作,这时就需要使用过滤黑名单的功能。 过滤黑名单是指在Spark Streaming过滤掉已经被定义为黑名单的数据,这些数据是根据某些条件或规则来定义的。在Spark Streaming中,过滤黑名单通常使用DStream.filter()函数进行实现,具体实现方式如下: 1. 首先,需要定义一个黑名单列表,这个列表中包含所有需要被过滤掉的数据。可以使用RDD或DataFrame来定义列表。 2. 对于实时流中的每个批次数据,使用DStream.filter()函数来应用黑名单过滤操作。具体过程如下: a. 使用transform()函数来将RDD创建为DStream,并传递每个RDD的黑名单列表。 b. 在transform()函数中,使用RDD.filter()函数来过滤掉在黑名单中的数据。 c. 将过滤后的RDD返回到DStream中。 d. 最后,对过滤后的DStream进行处理,比如计算或存储数据。 通过这种方式,就可以有效地实现对黑名单数据的过滤操作,从而提高实时流分析的效率和准确性。需要注意的是,在处理实时流数据时,需要考虑到数据的实时性和时效性,尽量减少延迟和出错的机会,以保证数据处理的高效性和准确性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值