Flink + kafka + FlinkSql 计算 10秒滚动窗口内 用户点击次数,之后自定义 sink To mysql

Flink+kafka 流数据 使用FlinkSql 计算 10秒滚动窗口内 用户点击次数,之后自定义 sink To mysql。

Flink版本为1.6.1 

代码如下:

FlinkSqlWindowUserPv.java

import java.sql.Timestamp;
import java.util.Properties;

import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.api.java.tuple.Tuple3;
import org.apache.flink.api.java.tuple.Tuple5;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer010;
import org.apache.flink.table.api.Table;
import org.apache.flink.table.api.TableConfig;
import org.apache.flink.table.api.java.StreamTableEnvironment;

import pojo.UserPvEntity;


public class FlinkSqlWindowUserPv{

    public static void main(String[] args) throws Exception {

    	StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    	
    	env.setParallelism(8);
    	
    	TableConfig tc = new TableConfig();
    	
    	StreamTableEnvironment tableEnv = new StreamTableEnvironment(env, tc);

        Properties properties = new Properties();
        properties.put("bootstrap.servers", "127.0.0.1:9092");
        properties.put("zookeeper.connect", "127.0.0.1:2181");
        properties.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        properties.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        properties.put("group.id", "test6");

        FlinkKafkaConsumer010<String> myConsumer = new FlinkKafkaConsumer010<String>("myItems_topic5", new SimpleStringSchema(),
                properties);

        DataStream<String> stream = env.addSource(myConsumer);
        
        DataStream<Tuple5<String, String, String, String, Long>> map = stream.map(new MapFunction<String, Tuple5<String, String, String, String,Long>>() {

        	private static final long serialVersionUID = 1471936326697828381L;

			@Override
			public Tuple5<String, String, String, String,Long> map(String value) throws Exception {
				String[] split = value.split(" ");
				return new Tuple5<String, String, String, String,Long>(split[0],split[1],split[2],split[3],Long.valueOf(split[4])*1000);
			}
		});
        
        map.print(); //打印流数据
        
        
        //注册为user表
        tableEnv.registerDataStream("Users", map, "userId,itemId,categoryId,behavior,timestampin,proctime.proctime"); 
        
        //执行sql查询     滚动窗口 10秒    计算10秒窗口内用户点击次数
        Table sqlQuery = tableEnv.sqlQuery("SELECT TUMBLE_END(proctime, INTERVAL '10' SECOND) as processtime,"
        		+ "userId,count(*) as pvcount "
        		+ "FROM Users "
        		+ "GROUP BY TUMBLE(proctime, INTERVAL '10' SECOND), userId");
        
        
        //Table 转化为 DataStream 
        DataStream<Tuple3<Timestamp, String, Long>> appendStream = tableEnv.toAppendStream(sqlQuery,Types.TUPLE(Types.SQL_TIMESTAMP,Types.STRING,Types.LONG));
        
        appendStream.print();
        
        
        //sink to mysql
        appendStream.map(new MapFunction<Tuple3<Timestamp,String,Long>, UserPvEntity>() {

			private static final long serialVersionUID = -4770965496944515917L;

			@Override
			public UserPvEntity map(Tuple3<Timestamp, String, Long> value) throws Exception {
				
				return new UserPvEntity(Long.valueOf(value.f0.toString()),value.f1,value.f2);
			}
		}).addSink(new SinkUserPvToMySQL2());
        
        env.execute("userPv from Kafka");

    }
    
}

 SinkUserPvToMySQL2.java

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;

import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.functions.sink.RichSinkFunction;

import pojo.UserPvEntity;

public class SinkUserPvToMySQL2 extends RichSinkFunction<UserPvEntity> {

	private static final long serialVersionUID = -4443175430371919407L;
	PreparedStatement ps;
    private Connection connection;

    /**
     * open() 方法中建立连接,这样不用每次 invoke 的时候都要建立连接和释放连接
     *
     * @param parameters
     * @throws Exception
     */
    @Override
    public void open(Configuration parameters) throws Exception {
        super.open(parameters);
        connection = getConnection();
        String sql = "replace into t_user_pv(pvtime,userId, pvcount) values(?, ?, ?);";
        ps = this.connection.prepareStatement(sql);
    }

    @Override
    public void close() throws Exception {
        super.close();
        //关闭连接和释放资源
        if (connection != null) {
            connection.close();
        }
        if (ps != null) {
            ps.close();
        }
    }

    /**
     * 每条数据的插入都要调用一次 invoke() 方法
     *
     * @param value
     * @param context
     * @throws Exception
     */
    @Override
    public void invoke(UserPvEntity userPvEntity, Context context) throws Exception {
        //组装数据,执行插入操作
    	ps.setLong(1, userPvEntity.getTime());
    	ps.setString(2, userPvEntity.getUserId());
        ps.setLong(3, userPvEntity.getPvcount());
        
        ps.executeUpdate();
    }

    private static Connection getConnection() {
        Connection con = null;
        try {
            Class.forName("com.mysql.jdbc.Driver");
            con = DriverManager.getConnection("jdbc:mysql://localhost:3306/myTable??useUnicode=true&characterEncoding=UTF-8","root","123456");
        } catch (Exception e) {
            System.out.println("-----------mysql get connection has exception , msg = "+ e.getMessage());
        }
        return con;
    }
}

结果展示:

 

Flink 中,Connector 是指用于与外部系统进行数据交互的组件。Connector 可以与各种外部系统进行交互,例如数据库、消息队列、文件系统等。Connector 的实现通常包括两个部分:Source 和 Sink。 在 Flink SQL 中,Connector 的定义和实现通常需要通过以下方式: 1. 导入相关依赖库:在 Flink SQL 中,需要导入对应的 Connector 的相关依赖库,例如 flink-connector-jdbc、flink-connector-kafkaflink-connector-hive 等。 2. 创建 Source 和 Sink:创建对应的 Source 和 Sink 组件,并实现相关的接口。例如,如果需要读取MySQL 数据库中的数据,需要创建对应的 MySQLSource,并实现 Source 接口。 3. 配置 Connector:对于每个 Connector,都需要进行相应的配置,包括连接信息、数据格式、数据读取方式等。例如,对于 MySQLSource,需要配置 MySQL 的连接信息、表名、字段名等。 4. 注册 Connector:将创建好的 Connector 注册到 Flink 中,以便在 SQL 查询中使用。可以通过 Flink 的 TableEnvironment 注册 Connector。 5. 在 SQL 查询中使用 Connector:使用 Flink SQL 编写查询语句,通过 FROM 子句指定使用的 Connector,并通过 SELECT 子句定义需要查询的数据。例如: ``` SELECT name, age, gender FROM MyTable, MySQLSource WHERE MyTable.id = MySQLSource.id; ``` 上述 SQL 查询中使用了 MyTable 和 MySQLSource 两个 Connector,其中 MyTable 是 Flink 内部的 Table,MySQLSource 是自定义的 Connector。 总之,Flink SQL 中的 Connector 提供了一种便捷的方式,可以方便地与外部系统进行数据交互,并且可以通过 SQL 查询语句实现复杂的数据处理和分析。
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

麦香鸡翅

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值