Flink清洗Kafka数据存入MySQL测试

版本信息:

Flink Version:1.6.2
Kafka Version:0.9.0.0
MySQL Version:5.6.21

Kafka 消息样例及格式:[IP TIME URL STATU_CODE REFERER]


1.74.103.143	2018-12-20 18:12:00	 "GET /class/130.html HTTP/1.1" 	404	https://search.yahoo.com/search?p=Flink实战

Pom.xml

<scala.version>2.11.8</scala.version>
<flink.version>1.6.2</flink.version>

 <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-java</artifactId>
      <version>${flink.version}</version>
    </dependency>

    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-streaming-java_2.11</artifactId>
      <version>${flink.version}</version>
    </dependency>
    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-clients_2.11</artifactId>
      <version>${flink.version}</version>
    </dependency>

    <!--Flink-Kafka -->
    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-connector-kafka-0.9_2.11</artifactId>
      <version>${flink.version}</version>
    </dependency>

    <dependency>
      <groupId>mysql</groupId>
      <artifactId>mysql-connector-java</artifactId>
      <version>5.1.39</version>
    </dependency>


sConf

package com.soul.conf;

/**
 * @author soulChun
 * @create 2018-12-20-15:11
 */
public class sConf {
    public static final String USERNAME = "root";
    public static final String PASSWORD = "root";
    public static final String DRIVERNAME = "com.mysql.jdbc.Driver";
    public static final String URL = "jdbc:mysql://localhost:3306/soul";
}

MySQLSlink

package com.soul.kafka;

import com.soul.conf.sConf;
import org.apache.flink.api.java.tuple.Tuple5;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.functions.sink.RichSinkFunction;

import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;

/**
 * @author soulChun
 * @create 2018-12-20-15:09
 */
public class MySQLSink extends RichSinkFunction<Tuple5<String, String, String, String, String>> {
    private static final long serialVersionUID = 1L;
    private Connection connection;
    private PreparedStatement preparedStatement;

    public void invoke(Tuple5<String, String, String, String, String> value) {

        try {
            if (connection == null) {
                Class.forName(sConf.DRIVERNAME);
                connection = DriverManager.getConnection(sConf.URL, sConf.USERNAME, sConf.PASSWORD);
            }
            String sql = "insert into log_info (ip,time,courseid,status_code,referer) values (?,?,?,?,?)";
            preparedStatement = connection.prepareStatement(sql);
            preparedStatement.setString(1, value.f0);
            preparedStatement.setString(2, value.f1);
            preparedStatement.setString(3, value.f2);
            preparedStatement.setString(4, value.f3);
            preparedStatement.setString(5, value.f4);
            System.out.println("Start insert");
            preparedStatement.executeUpdate();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

    public void open(Configuration parms) throws Exception {
        Class.forName(sConf.DRIVERNAME);
        connection = DriverManager.getConnection(sConf.URL, sConf.USERNAME, sConf.PASSWORD);
    }

    public void close() throws Exception {

        if (preparedStatement != null) {
            preparedStatement.close();
        }

        if (connection != null) {
            connection.close();
        }

    }


}

数据清洗日期工具类

package com.soul.utils;

import org.apache.commons.lang3.time.FastDateFormat;

import java.util.Date;

/**
 * @author soulChun
 * @create 2018-12-19-18:44
 */
public class DateUtils {
    private static FastDateFormat SOURCE_FORMAT = FastDateFormat.getInstance("yyyy-MM-dd HH:mm:ss");
    private static FastDateFormat TARGET_FORMAT = FastDateFormat.getInstance("yyyyMMddHHmmss");

    public static Long  getTime(String  time) throws Exception{
        return SOURCE_FORMAT.parse(time).getTime();
    }

    public static String parseMinute(String time) throws  Exception{
        return TARGET_FORMAT.format(new Date(getTime(time)));
    }


    public static void main(String[] args) throws Exception{
        String time = "2018-12-19 18:55:00";

        System.out.println(parseMinute(time));
    }
}

MySQL建表

create table log_info(
ID INT NOT NULL AUTO_INCREMENT,
IP VARCHAR(50),
TIME VARCHAR(50),
CourseID VARCHAR(10),
Status_Code VARCHAR(10),
Referer VARCHAR(100),
PRIMARY KEY ( ID )
)ENGINE=InnoDB DEFAULT CHARSET=utf8;

主程序:主要是将time的格式转成yyyyMMddHHmmss,还有取URL中的课程ID,将不是/class开头的过滤掉。

package com.soul.kafka;

import com.soul.utils.DateUtils;
import org.apache.flink.api.common.functions.FilterFunction;
import org.apache.flink.api.common.functions.MapFunction;
import org.apache.flink.api.common.serialization.SimpleStringSchema;
import org.apache.flink.api.java.tuple.Tuple5;
import org.apache.flink.streaming.api.TimeCharacteristic;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer09;

import java.util.Properties;

/**
 * @author soulChun
 * @create 2018-12-19-17:23
 */
public class FlinkCleanKafka {
    public static void main(String[] args) throws Exception {
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        env.enableCheckpointing(5000);
        Properties properties = new Properties();
        properties.setProperty("bootstrap.servers", "localhost:9092");//kafka的节点的IP或者hostName,多个使用逗号分隔
        properties.setProperty("zookeeper.connect", "localhost:2181");//zookeeper的节点的IP或者hostName,多个使用逗号进行分隔
        properties.setProperty("group.id", "test-consumer-group");//flink consumer flink的消费者的group.id

        FlinkKafkaConsumer09<String> myConsumer = new FlinkKafkaConsumer09<String>("imooc_topic", new SimpleStringSchema(), properties);

        DataStream<String> stream = env.addSource(myConsumer);
//        stream.print().setParallelism(2);

        DataStream CleanData = stream.map(new MapFunction<String, Tuple5<String, String, String, String, String>>() {
            @Override
            public Tuple5<String, String, String, String, String> map(String value) throws Exception {
                String[] data = value.split("\\\t");
                String CourseID = null;
                String url = data[2].split("\\ ")[2];
                if (url.startsWith("/class")) {
                    String CourseHTML = url.split("\\/")[2];
                    CourseID = CourseHTML.substring(0, CourseHTML.lastIndexOf("."));
//                    System.out.println(CourseID);
                }

                return Tuple5.of(data[0], DateUtils.parseMinute(data[1]), CourseID, data[3], data[4]);
            }
        }).filter(new FilterFunction<Tuple5<String, String, String, String, String>>() {
            @Override
            public boolean filter(Tuple5<String, String, String, String, String> value) throws Exception {
                return value.f2 != null;
            }
        });


        CleanData.addSink(new MySQLSink());

        env.execute("Flink kafka");
    }
}

启动主程序,查看表数据

mysql> select count(*) from log_info;
+----------+
| count(*) |
+----------+
|    15137 |
+----------+

Kafka过来的消息是我模拟的,一分钟产生100条。以上只是测试代码,对数据的准确性、程序性能没有做考虑,大家可以自己完善。还有WaterMark之类还在测试,测试完会做分享。

### 回答1: Flink可以通过Kafka Connector来消费Kafka数据,并将数据写入MySQL数据库。具体步骤如下: 1. 在Flink程序中引入Kafka Connector的依赖。 2. 创建一个Kafka Consumer,并设置相关的参数,如Kafka的地址、消费的Topic等。 3. 将Kafka Consumer读取到的数据进行处理,可以使用Flink提供的各种算子进行数据转换、过滤、聚合等操作。 4. 将处理后的数据写入MySQL数据库,可以使用Flink提供的JDBC Sink将数据写入MySQL中。 需要注意的是,Flink消费Kafka数据MySQL时,需要考虑数据的一致性和可靠性,可以使用Flink提供的Checkpoint机制来保证数据的一致性和容错性。同时,还需要考虑MySQL数据库的性能和可用性,可以使用连接池等技术来提高MySQL的性能和可用性。 ### 回答2: Apache Flink是一个流处理框架,可以方便地消费Kafka数据并将其写入MySQL数据库。Flink提供了Kafka数据源API来处理Kafka数据并将其转换为Flink数据流。Flink还提供了MySQL Sink API,可将Flink数据流转换为MySQL查询,并将其写入MySQL表中。 为了使用Kafka数据源API,需要使用以下代码创建KafkaSource: ``` FlinkKafkaConsumer consumer = new FlinkKafkaConsumer( "my-topic", new SimpleStringSchema(), properties); ``` 在上面的代码中,“my-topic”是Kafka主题名称,SimpleStringSchema是序列化程序,properties是Kafka消费者的配置属性。 接下来,您可以使用DataStreamAPI将Kafka数据源转换为DataStream: ``` DataStream<String> stream = env.addSource(consumer); ``` 在上面的代码中,env是Flink执行环境。 一旦您有了一个数据流,您可以使用MySQL Sink API将数据流写入MySQL数据库。使用以下代码创建MySQL Sink: ``` JDBCAppendTableSink sink = JDBCAppendTableSink.builder() .setDrivername("com.mysql.jdbc.Driver") .setDBUrl("jdbc:mysql://localhost:3306/mydatabase") .setUsername("myusername") .setPassword("mypassword") .setQuery("INSERT INTO mytable (id, name) VALUES (?, ?)") .setParameterTypes(Types.INT, Types.STRING) .build(); ``` 在上面的代码中,query是MySQL插入查询,setParameterTypes指定插入的参数类型。 接下来,你可以使用DataStreamAPI将数据写入MySQL Sink: ``` stream.addSink(sink); ``` 在上面的代码中,stream是上面创建的数据流。 最后,您需要启动Flink程序来开始消费Kafka数据并将其写入MySQL数据库: ``` env.execute(); ``` 现在,您已经成功地消耗了来自Kafka数据,并将其写入MySQL数据库。 ### 回答3: Flink是一个分布式实时计算引擎,它能够读取多种数据源,其中包括Kafka消息队列。在Flink中消费Kafka数据并将其写入MySQL数据库的步骤如下: 1. 添加依赖库 首先,需要在项目中添加FlinkKafka的依赖库,可以通过Maven或Gradle添加相关依赖库。例如,在Maven项目中添加以下依赖库: ```xml <!-- Flink --> <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-core</artifactId> <version>${flink.version}</version> </dependency> <dependency> <groupId>org.apache.flink</groupId> <artifactId>flink-streaming-java_${scala.binary.version}</artifactId> <version>${flink.version}</version> </dependency> <!-- Kafka --> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>${kafka.version}</version> </dependency> ``` 其中,`${flink.version}`和`${kafka.version}`需要根据实际情况替换为对应的版本号。 2. 创建Kafka数据源 然后,需要创建FlinkKafka数据源,可以通过以下方式实现: ```java Properties properties = new Properties(); properties.setProperty("bootstrap.servers", "localhost:9092"); properties.setProperty("group.id", "flink-group"); properties.setProperty("auto.offset.reset", "latest"); DataStream<String> stream = env .addSource(new FlinkKafkaConsumer<>( "topic-name", new SimpleStringSchema(), properties)); ``` 以上代码中,我们创建了一个名为`stream`的DataStream对象,并且通过FlinkKafkaConsumer将它和Kafka的消息队列连接起来。其中,`properties`中设置了Kafka的连接参数,`"topic-name"`指定了要消费的Kafka主题名,`SimpleStringSchema`表示我们只关注字符串类型的Kafka消息。 3. 解析Kafka数据 接下来,需要对Kafka中的数据进行解析和转换。例如,我们将Kafka消息中的JSON字符串转换为Java对象: ```java DataStream<Message> messages = stream.map(value -> { ObjectMapper mapper = new ObjectMapper(); return mapper.readValue(value, Message.class); }); ``` 这里,我们使用了Jackson库来将JSON字符串转换为Java对象,`Message.class`表示要转换成的对象类型。 4. 写入MySQL数据库 最后一步是将解析并转换后的数据写入MySQL数据库,可以通过JDBC实现。以下是简单的JDBC写入数据示例: ```java messages.addSink(new RichSinkFunction<Message>() { private Connection connection = null; private PreparedStatement statement = null; @Override public void open(Configuration parameters) throws Exception { super.open(parameters); Class.forName("com.mysql.jdbc.Driver"); connection = DriverManager.getConnection("jdbc:mysql://localhost:3306/db_name", "user", "password"); statement = connection.prepareStatement("INSERT INTO messages (id, content) VALUES (?, ?)"); } @Override public void close() throws Exception { super.close(); if (statement != null) { statement.close(); } if (connection != null) { connection.close(); } } @Override public void invoke(Message message, Context context) throws Exception { statement.setInt(1, message.getId()); statement.setString(2, message.getContent()); statement.executeUpdate(); } }); ``` 以上代码中,`RichSinkFunction`表示数据写入器,`open`方法中创建了JDBC连接对象,`close`方法中关闭了连接对象,`invoke`方法中对每个解析的Message对象执行插入数据的操作。需要注意的是,需要将`jdbc:mysql://localhost:3306/db_name`中的`db_name`、`user`和`password`替换为实际MySQL数据库的值。 同时还需要添加对应的MySQL JDBC依赖库。 通过以上步骤,就可以使用FlinkKafka消息消费并写入MySQL数据库了。同时,还可以进行更多的数据转换和处理操作,例如过滤、分组、聚合等,从而实现更复杂的实时数据分析和计算。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值