使用Apache http client发送json数据(demo)

POM依赖 :

        <dependency>
			<groupId>org.apache.httpcomponents</groupId>
			<artifactId>httpclient</artifactId>
			<version>4.5.12</version>
		</dependency>
		<dependency>
			<groupId>com.alibaba</groupId>
			<artifactId>fastjson</artifactId>
			<version>1.2.46</version>
		</dependency>

客户端代码:

package xyz.jangle.httpclient.test;
import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpPost;
import org.apache.http.entity.StringEntity;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.util.EntityUtils;
//import org.json.JSONObject;

import com.alibaba.fastjson.JSONObject;
 
public class HttpClientSendJson {
    public static void main(String[] args) {
        try {
            // 创建HttpClient实例
            CloseableHttpClient httpClient = HttpClients.createDefault();
 
            // 创建HttpPost实例
            HttpPost httpPost = new HttpPost("http://127.0.0.1:8080/hello/test3");
 
            // 创建JSON数据
            JSONObject json = new JSONObject();
//            json.put("key1", "value1");
//            json.put("key2", "value2");
            json.put("shebeiId", "123");
            json.put("xiaoxiId", "456");
            json.put("xiaoxiType", "1");
 
            // 将JSON数据设置到StringEntity中
            StringEntity entity = new StringEntity(json.toString());
 
            // 设置内容类型
            entity.setContentType("application/json");
 
            // 设置HttpPost实例的实体
            httpPost.setEntity(entity);
 
            // 发送请求
            CloseableHttpResponse response = httpClient.execute(httpPost);
 
            // 获取响应内容
            String result = EntityUtils.toString(response.getEntity());
 
            // 输出结果
            System.out.println(result);
 
            // 关闭response
            response.close();
        } catch (Exception e) {
            e.printStackTrace();
        }
    }
}

服务端接收方式:

    @RequestMapping(value = "/test3", method = RequestMethod.POST)
	@ResponseBody
	public Map<String, Object> test3(@RequestBody String test){
		Map<String,Object> map = new HashMap<String,Object>();
		//string
		logger.info("test:"+test);
		try {
			JSONObject jsonObject = JSONObject.parseObject(test);
			String shebeiId = jsonObject.getString("shebeiId");
			String xiaoxiId = jsonObject.getString("xiaoxiId");
			String xiaoxiType = jsonObject.getString("xiaoxiType");
            return xxx(shebeiId, xiaoxiId, map);
		} catch (Exception e) {
			map.put("code", 102);
			map.put("msg", e.toString());
			logger.error("异常:", e);
			return map;
		}
		
	}

参考文献:

1.百度AI

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 好的,下面是一个简单的 Apache Flink + MySQL + Elasticsearch 的同步示例: 首先,我们需要创建一个 Flink 应用程序来连接 MySQL 数据库并从中读取数据。下面是一个简单的程序示例: ```java import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.source.SourceFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.functions.source.SourceFunction; import java.sql.Connection; import java.sql.DriverManager; import java.sql.PreparedStatement; import java.sql.ResultSet; public class MySQLSourceExample { public static void main(String[] args) throws Exception { final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // configure MySQL connection String driver = "com.mysql.jdbc.Driver"; String url = "jdbc:mysql://localhost:3306/test"; String username = "root"; String password = "password"; // create MySQL source DataStream<String> mysqlSource = env.addSource(new SourceFunction<String>() { private volatile boolean isRunning = true; @Override public void run(SourceContext<String> sourceContext) throws Exception { Class.forName(driver); Connection connection = DriverManager.getConnection(url, username, password); PreparedStatement ps = connection.prepareStatement("SELECT * FROM my_table"); while (isRunning) { ResultSet rs = ps.executeQuery(); while (rs.next()) { String row = rs.getString("column_name"); sourceContext.collect(row); } Thread.sleep(1000); } ps.close(); connection.close(); } @Override public void cancel() { isRunning = false; } }); mysqlSource.print(); env.execute("MySQL Source Example"); } } ``` 接下来,我们需要将从 MySQL 中读取的数据写入 Elasticsearch。下面是一个简单的示例: ```java import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.sink.SinkFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.connectors.elasticsearch.ElasticsearchSink; import org.apache.flink.streaming.connectors.elasticsearch6.ElasticsearchSinkFunction; import org.apache.flink.streaming.connectors.elasticsearch6.ElasticsearchSinkBuilder; import org.apache.http.HttpHost; import org.elasticsearch.client.Requests; import org.elasticsearch.common.xcontent.XContentBuilder; import org.elasticsearch.common.xcontent.XContentFactory; import java.util.ArrayList; import java.util.HashMap; import java.util.List; import java.util.Map; public class ElasticsearchSinkExample { public static void main(String[] args) throws Exception { final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); // configure Elasticsearch connection List<HttpHost> httpHosts = new ArrayList<>(); httpHosts.add(new HttpHost("localhost", 9200, "http")); // create Elasticsearch sink ElasticsearchSink.Builder<String> esSinkBuilder = new ElasticsearchSink.Builder<>(httpHosts, new ElasticsearchSinkFunction<String>() { public IndexRequest createIndexRequest(String element) { Map<String, String> json = new HashMap<>(); json.put("data", element); return Requests.indexRequest() .index("my_index") .type("my_type") .source(json); } @Override public void process(String element, RuntimeContext ctx, RequestIndexer indexer) { indexer.add(createIndexRequest(element)); } }); DataStream<String> mysqlSource = ... // create MySQL source // add Elasticsearch sink to MySQL source mysqlSource.addSink(esSinkBuilder.build()); env.execute("MySQL to Elasticsearch Example"); } } ``` 以上就是一个简单的 Apache Flink + MySQL + Elasticsearch 同步示例。需要注意的是,这只是一个简单的示例,实际项目中可能需要更复杂的处理逻辑和更高效的同步方案。 ### 回答2: Apache Flink是一个开源的流处理框架,而MySQL是一个关系型数据库,而Elasticsearch是一个分布式搜索和分析引擎。在这个场景中,我们希望将MySQL中的数据同步到Elasticsearch中,以便于实时搜索和分析。 为了实现这个目标,我们可以使用Flink提供的连接器和Elasticsearch的客户端库。具体来说,我们可以按以下步骤操作以完成同步任务。 首先,我们需要在我们的Flink Job中引入MySQL的连接器,并配置连接属性,以便连接到MySQL数据库。这样我们就可以从MySQL中读取数据。 接下来,我们可以使用Flink的Transformations操作对MySQL的数据进行处理和转换,以适应我们想要同步到Elasticsearch的数据结构。这可能涉及到数据的清洗、转换、过滤和聚合等操作。 然后,我们需要配置Elasticsearch的连接属性,在Flink Job中引入Elasticsearch的客户端库,并将数据写入到Elasticsearch中。为了提高性能,我们可以使用批量写入的方式,将一批数据一次性写入到Elasticsearch中。 在数据写入Elasticsearch之前,我们还可以对数据进行额外的转换和格式化操作,以适应Elasticsearch的索引结构。 最后,我们需要配置Flink Job的并行度和容错机制,以便保证任务的高可用性和性能。 通过以上步骤,我们就可以实现将MySQL中的数据实时同步到Elasticsearch的Demo。这样一来,我们可以及时地从Elasticsearch中搜索和分析MySQL中的数据,提高数据的实时性和可用性。同时,Apache Flink提供的分布式计算能力可以保证任务的高性能和可扩展性。 ### 回答3: Apache Flink是一个开源的、高性能的流处理框架,而Elasticsearch是一个开源的分布式搜索和分析引擎。在实际的应用场景中,通常需要将数据从MySQL数据库同步到Elasticsearch进行搜索和分析,这可以通过Apache Flink实现。 实现Apache Flink与MySQL同步Elasticsearch的Demo大致可以分为以下几个步骤: 1. 配置MySQL和Elasticsearch的连接信息:首先,我们需要在Apache Flink的应用程序中配置MySQL和Elasticsearch的连接信息,包括MySQL的url、用户名、密码,以及Elasticsearch的url和索引信息等。 2. 创建Flink DataStream:使用Apache Flink的DataStream API,我们可以从MySQL中读取数据并将其转换为DataStream。可以使用Flink提供的MySQL Connector来连接MySQL数据库,并使用sql查询语句获取数据。 3. 数据转换和处理:根据具体的业务需求,可以对从MySQL数据库中读取的数据进行转换和处理,例如过滤掉不需要的字段、数据格式转换等。 4. 将数据写入Elasticsearch:使用Flink提供的Elasticsearch Connector,可以将处理后的数据写入Elasticsearch中的指定索引。可以根据需要设置Elasticsearch的索引类型、分区、副本等配置。 5. 启动Flink应用程序:将Flink应用程序打包,并在Flink集群中启动该应用程序,即可开始同步MySQL数据到Elasticsearch。 通过上述步骤,我们可以实现Apache Flink与MySQL的数据同步到Elasticsearch,从而提供实时的搜索和分析能力。同时,通过Flink的流处理能力,可以保证同步过程的高性能和低延迟,适用于大规模数据的处理和分析。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值