Elasticsearch06——Elasticsearch 集成

一、Spring Data 框架集成

 Spring Data 是一个用于简化数据库、非关系型数据库、索引库访问,并支持云服务的开源框架。其主要目标是使得对数据的访问变得方便快捷,并支持 map-reduce 框架和云计算数据服务。 Spring Data 可以极大的简化 JPA(Elasticsearch)的写法,可以在几乎不用写实现的情况下,实现对数据的访问和操作。除了 CRUD 外,还包括如分页、排序等一些常用的功能。
 Spring Data Elasticsearch 基于 spring data API 简化 Elasticsearch 操作,将原始操作 Elasticsearch 的客户端 API 进行封装 。版本对应关系如下:
在这里插入图片描述
 集成方式:
 1、依赖:

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-elasticsearch</artifactId>
</dependency>

 2、配置ES地址:

# es 服务地址
elasticsearch.host=127.0.0.1
# es 服务端口
elasticsearch.port=9200

 3、实体类:

@Data
@NoArgsConstructor
@AllArgsConstructor
@ToString
@Document(indexName = "shopping", shards = 3, replicas = 1)
public class Product {
	//必须有 id,这里的 id 是全局唯一的标识,等同于 es 中的"_id"
	@Id
	private Long id;//商品唯一标识
	/**
	* type : 字段数据类型
	* analyzer : 分词器类型
	* index : 是否索引(默认:true)
	* Keyword : 短语,不进行分词
	*/
	@Field(type = FieldType.Text, analyzer = "ik_max_word")
	private String title;//商品名称
	@Field(type = FieldType.Keyword)
	private String category;//分类名称
	@Field(type = FieldType.Double)
	private Double price;//商品价格
	@Field(type = FieldType.Keyword, index = false)
	private String images;//图片地址
}

 4、配置类:

@ConfigurationProperties(prefix = "elasticsearch")
@Configuration
@Data
public class ElasticsearchConfig extends AbstractElasticsearchConfiguration {
	private String host ;
	private Integer port ;
	//重写父类方法
	@Override
	public RestHighLevelClient elasticsearchClient() {
		RestClientBuilder builder = RestClient.builder(new HttpHost(host, port));
		RestHighLevelClient restHighLevelClient = new RestHighLevelClient(builder);
		return restHighLevelClient;
	}
}

  ①ElasticsearchRestTemplate 是 spring-data-elasticsearch 项目中的一个类,和其他 spring 项目中的 template类似。
  ②在新版的 spring-data-elasticsearch 中,ElasticsearchRestTemplate 代替了原来的 ElasticsearchTemplate。原因是 ElasticsearchTemplate 基于 TransportClient,TransportClient 即将在 8.x 以后的版本中移除。所以,我们推荐使用 ElasticsearchRestTemplate。
  ③ElasticsearchRestTemplate 是基于 RestHighLevelClient 客户端的。需要自定义配置类,继承AbstractElasticsearchConfiguration,并实现 elasticsearchClient()抽象方法,创建 RestHighLevelClient 对象。
 5、DAO层:

@Repository
public interface ProductDao extends ElasticsearchRepository<Product,Long> {
}

 6、索引操作:

@RunWith(SpringRunner.class)
@SpringBootTest
public class SpringDataESIndexTest {
	//注入 ElasticsearchRestTemplate
	@Autowired
	private ElasticsearchRestTemplate elasticsearchRestTemplate;
	//创建索引并增加映射配置
	@Test
	public void createIndex(){
		//创建索引,系统初始化会自动创建索引
		System.out.println("创建索引");
	}
	@Test
	public void deleteIndex(){
		//删除索引
		boolean flg = elasticsearchRestTemplate.deleteIndex(Product.class);
		System.out.println("删除索引 = " + flg);
	}
}

 7、文档操作:

@RunWith(SpringRunner.class)
@SpringBootTest
public class SpringDataESProductDaoTest {
	@Autowired
	private ProductDao productDao;
	/**
	* 新增
	*/
	@Test
	public void save(){
		Product product = new Product();
		product.setId(2L);
		product.setTitle("华为手机");
		product.setCategory("手机");
		product.setPrice(2999.0);
		product.setImages("http://www.atguigu/hw.jpg");
		productDao.save(product);
	}
	//修改
	@Test
	public void update(){
		Product product = new Product();
		product.setId(1L);
		product.setTitle("小米 2 手机");
		product.setCategory("手机");
		product.setPrice(9999.0);
		product.setImages("http://www.atguigu/xm.jpg");
		productDao.save(product);
	}
	//根据 id 查询
	@Test
	public void findById(){
		Product product = productDao.findById(1L).get();
		System.out.println(product);
	}
	//查询所有
	@Test
	public void findAll(){
		Iterable<Product> products = productDao.findAll();
		for (Product product : products) {
			System.out.println(product);
		}
	}
	//删除
	@Test
	public void delete(){
		Product product = new Product();
		product.setId(1L);
		productDao.delete(product);
	}
	//批量新增
	@Test
	public void saveAll(){
		List<Product> productList = new ArrayList<>();
		for (int i = 0; i < 10; i++) {
			Product product = new Product();
			product.setId(Long.valueOf(i));
			product.setTitle("["+i+"]小米手机");
			product.setCategory("手机");
			product.setPrice(1999.0+i);
			product.setImages("http://www.atguigu/xm.jpg");
			productList.add(product);
		}
		productDao.saveAll(productList);
	}
	//分页查询
	@Test
	public void findByPageable(){
		//设置排序(排序方式,正序还是倒序,排序的 id)
		Sort sort = Sort.by(Sort.Direction.DESC,"id");
		int currentPage=0;//当前页,第一页从 0 开始,1 表示第二页
		int pageSize = 5;//每页显示多少条
		//设置查询分页
		PageRequest pageRequest = PageRequest.of(currentPage, pageSize,sort);
		//分页查询
		Page<Product> productPage = productDao.findAll(pageRequest);
		for (Product Product : productPage.getContent()) {
			System.out.println(Product);
		}
	}
}

 8、文档搜索:

@RunWith(SpringRunner.class)
@SpringBootTest
public class SpringDataESSearchTest {
	@Autowired
	private ProductDao productDao;
	/**
	* term 查询
	* search(termQueryBuilder) 调用搜索方法,参数查询构建器对象
	*/
	@Test
	public void termQuery(){
		TermQueryBuilder termQueryBuilder = QueryBuilders.termQuery("title", "小米");
		Iterable<Product> products = productDao.search(termQueryBuilder);
		for (Product product : products) {
			System.out.println(product);
		}
	}
	/**
	* term 查询加分页
	*/
	@Test
	public void termQueryByPage(){
		int currentPage= 0 ;
		int pageSize = 5;
		//设置查询分页
		PageRequest pageRequest = PageRequest.of(currentPage, pageSize);
		TermQueryBuilder termQueryBuilder = QueryBuilders.termQuery("title", "小米");
		Iterable<Product> products = productDao.search(termQueryBuilder,pageRequest);
		for (Product product : products) {
			System.out.println(product);
		}
	}
}
二、Spark Streaming 框架集成

 Spark Streaming 是 Spark core API 的扩展,支持实时数据流的处理,并且具有可扩展,高吞吐量,容错的特点。数据可以从许多来源获取,如 Kafka,Flume,Kinesis 或 TCP sockets,并且可以使用复杂的算法进行处理,这些算法使用诸如 map,reduce,join 和 window 等高级函数表示。 最后,处理后的数据可以推送到文件系统,数据库等。 实际上,您可以将 Spark 的机器学习和图形处理算法应用于数据流。
在这里插入图片描述
 1、依赖:

<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-core_2.12</artifactId>
    <version>3.0.0</version>
</dependency>
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-streaming_2.12</artifactId>
    <version>3.0.0</version>
</dependency>
<dependency>
    <groupId>org.elasticsearch</groupId>
    <artifactId>elasticsearch</artifactId>
    <version>7.8.0</version>
</dependency>
<!-- elasticsearch 的客户端 -->
<dependency>
    <groupId>org.elasticsearch.client</groupId>
    <artifactId>elasticsearch-rest-high-level-client</artifactId>
    <version>7.8.0</version>
</dependency>
<!-- elasticsearch 依赖 2.x 的 log4j -->
<dependency>
    <groupId>org.apache.logging.log4j</groupId>
    <artifactId>log4j-api</artifactId>
    <version>2.8.2</version>
</dependency>
<dependency>
    <groupId>org.apache.logging.log4j</groupId>
    <artifactId>log4j-core</artifactId>
    <version>2.8.2</version>
</dependency>

 2、功能实现:

object SparkStreamingESTest{
        def main(args:Array[String]):Unit={
        val sparkConf=new SparkConf().setMaster("local[*]").setAppName("ESTest")
        val ssc=new StreamingContext(sparkConf,Seconds(3))
        val ds:ReceiverInputDStream[String]=ssc.socketTextStream("localhost",9999)
        ds.foreachRDD(
            rdd=>{
                println("*************** "+new Date())
                rdd.foreach(
                    data=>{
                        val client=new RestHighLevelClient(RestClient.builder(new HttpHost("localhost",9200,"http")));
                        // 新增文档 - 请求对象
                        val request=new IndexRequest();
                        // 设置索引及唯一性标识
                        val ss=data.split(" ")
                        println("ss = "+ss.mkString(","))
                        request.index("sparkstreaming").id(ss(0));
                        val productJson= s""" | { "data":"${ss(1)}" } |""".stripMargin;
                        // 添加文档数据,数据格式为 JSON 格式
                        request.source(productJson,XContentType.JSON);
                        // 客户端发送请求,获取响应对象
                        val response=client.index(request,
                        RequestOptions.DEFAULT);
                        System.out.println("_index:"+response.getIndex());
                        System.out.println("_id:"+response.getId());
                        System.out.println("_result:"+response.getResult());
                        client.close()
                    }
                )
            }
        )
        ssc.start()
        ssc.awaitTermination()
        }
}
三、集成至Flink

 Apache Spark 是一种基于内存的快速、通用、可扩展的大数据分析计算引擎。Apache Spark 掀开了内存计算的先河,以内存作为赌注,赢得了内存计算的飞速发展。但是在其火热的同时,开发人员发现,在 Spark 中,计算框架普遍存在的缺点和不足依然没有完全解决,而这些问题随着 5G 时代的来临以及决策者对实时数据分析结果的迫切需要而凸显的更加明显:
  ①数据精准一次性处理(Exactly-Once)
  ②乱序数据,迟到数据
  ③低延迟,高吞吐,准确性
  ④容错性
 Apache Flink 是一个框架和分布式处理引擎,用于对无界和有界数据流进行有状态计算。在 Spark 火热的同时,也默默地发展自己,并尝试着解决其他计算框架的问题。慢慢地,随着这些问题的解决,Flink 慢慢被绝大数程序员所熟知并进行大力推广,阿里公司在 2015 年改进 Flink,并创建了内部分支 Blink,目前服务于阿里集团内部搜索、推荐、广告和蚂蚁等大量核心实时业务。
 1、依赖:

<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-scala_2.12</artifactId>
    <version>1.12.0</version>
</dependency>
<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-streaming-scala_2.12</artifactId>
    <version>1.12.0</version>
</dependency>
<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-clients_2.12</artifactId>
    <version>1.12.0</version>
</dependency>
<dependency>
    <groupId>org.apache.flink</groupId>
    <artifactId>flink-connector-elasticsearch7_2.11</artifactId>
    <version>1.12.0</version>
</dependency>
<!-- jackson -->
<dependency>
    <groupId>com.fasterxml.jackson.core</groupId>
    <artifactId>jackson-core</artifactId>
    <version>2.11.1</version>
</dependency>

 2、实现:

public class FlinkElasticsearchSinkTest {
    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        DataStreamSource<String> source = env.socketTextStream("localhost", 9999);
        List<HttpHost> httpHosts = new ArrayList<>();
        httpHosts.add(new HttpHost("127.0.0.1", 9200, "http"));
        //httpHosts.add(new HttpHost("10.2.3.1", 9200, "http"));
        // use a ElasticsearchSink.Builder to create an ElasticsearchSink
        ElasticsearchSink.Builder<String> esSinkBuilder = new
                ElasticsearchSink.Builder<>(httpHosts,
                new ElasticsearchSinkFunction<String>() {
                    public IndexRequest createIndexRequest(String element) {
                        Map<String, String> json = new HashMap<>();
                        json.put("data", element);
                        return Requests.indexRequest()
                                .index("my-index")
                                //.type("my-type")
                                .source(json);
                    }

                    @Override
                    public void process(String element, RuntimeContext ctx, RequestIndexer indexer) {
                        indexer.add(createIndexRequest(element));
                    }
                }
        );
        // configuration for the bulk requests; this instructs the sink to emit after every element, otherwise they would be buffered
        esSinkBuilder.setBulkFlushMaxActions(1);
        // provide a RestClientFactory for custom configuration on the internally created REST client
        // esSinkBuilder.setRestClientFactory(
        // restClientBuilder -> {
        // restClientBuilder.setDefaultHeaders(...)
        // restClientBuilder.setMaxRetryTimeoutMillis(...)
        // restClientBuilder.setPathPrefix(...)
        // restClientBuilder.setHttpClientConfigCallback(...)
        // }
        // );
        source.addSink(esSinkBuilder.build());
        env.execute("flink-es");
    }
}
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值