概述:Flink数据源(Data Sources)可以来自Java collections,也可以来自文件。本文主要介绍分别使用Scala和Java从CSV、Text中读取数据的方法,更详细信息可以参阅官方文档。
(1)Scala方式
/** * map算子 * * @param env */ def mapFunction(env: ExecutionEnvironment): Unit = { import org.apache.flink.api.scala._ val data = env.fromCollection(List(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)) // data.map((x:Int)=>x+1).print() // data.map((x)=>x+1).print() // data.map(x=>x+1).print() data.map(_ + 1).filter(_ > 5).print() } /** * 读取压缩文件 * * @param env */ def readCompressionFiles(env: ExecutionEnvironment): Unit = { val filePath = "E:\\compression" env.readTextFile(filePath).print() } /** * 读取嵌套文件 * * @param env */ def readRecursiveFiles(env: ExecutionEnvironment): Unit = { val fileP