[Java 高并发场景下的ConcurrentHashMap 数据操作 ]

目录

🍑前言:

🍑使用ConcurrentHashMap在高并发场景下进行数据操作的示例

🍑我们使用了100个线程来添加元素,这可能会导致线程数过多而影响性能,因此,可以通过使用线程池来管理线程数量

🍑 我们使用了并行流来并发处理任务,但是这种方式会占用大量的CPU资源,可能会导致其他线程无法正常运行。因此,我们可以使用分治策略来将数据划分成多个小批量进行处理,以避免CPU资源的浪费

🍑我们使用了线程池和分治策略来优化程序效率。然而,当元素数量较大时,遍历数据仍然会消耗大量的时间和资源。为了进一步提高程序效率,我们可以使用并发流和批量添加元素的方式来处理数据。

🍑我们使用了分治策略、线程池和并发流来优化程序效率。尽管这些方法可以提高程序效率,但当元素数量非常大时,仍然可能会遇到性能瓶颈。为了进一步提升程序性能,使用Spark框架进行并行计算

🍑SparkSession sparkSession = SparkSession.builder().master("local[*]").appName("Demo").getOrCreate();是干什么的?

🍑Apache Cassandra分布式数据库进行分布式存储和查询

🍑Redis作为分布式缓存


🍑前言:

    主要是由简到深来讲解关于ConcurrentHashMap这个知识点的应用,希望对你有帮助,沉淀自己应用的笔记

🍑使用ConcurrentHashMap在高并发场景下进行数据操作的示例

import java.util.concurrent.ConcurrentHashMap;

public class Demo {
    public static void main(String[] args) {
        ConcurrentHashMap<String, Integer> map = new ConcurrentHashMap<>();

        // 创建100个线程,每个线程向map中添加10000个元素
        for (int i = 0; i < 100; i++) {
            new Thread(() -> {
                for (int j = 0; j < 10000; j++) {
                    String key = "key" + j;
                    Integer value = j;
                    map.put(key, value);
                }
            }).start();
        }

        // 等待所有线程执行完成
        try {
            Thread.sleep(5000);
        } catch (InterruptedException e) {
            e.printStackTrace();
        }

        // 输出map的大小
        System.out.println("map size: " + map.size());
    }
}
  • 这个示例中,我们创建了100个线程,并使用ConcurrentHashMap向其中添加10000个元素。由于ConcurrentHashMap是线程安全的,所以可以在高并发场景下保证数据的一致性和完整性。最终,我们输出map的大小,可以看到其大小为1000000,符合预期。

🍑我们使用了100个线程来添加元素,这可能会导致线程数过多而影响性能,因此,可以通过使用线程池来管理线程数量

import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.stream.IntStream;

public class Demo {
    public static void main(String[] args) {
        ConcurrentHashMap<String, Integer> map = new ConcurrentHashMap<>();

        // 创建10个线程的线程池
        ExecutorService executorService = Executors.newFixedThreadPool(10);

        // 使用并行流并发处理任务
        IntStream.range(0, 100000).parallel().forEach(i -> {
            String key = "key" + i;
            Integer value = i;
            map.put(key, value);
        });

        // 关闭线程池
        executorService.shutdown();

        // 输出map的大小
        System.out.println("map size: " + map.size());
    }
}
  •    我们创建了一个包含10个线程的线程池,并使用并行流处理任务。在实际应用中,应该根据实际情况选择线程池的大小和并行度。最终,我们输出map的大小,可以看到其大小为100000,符合预期。

🍑 我们使用了并行流来并发处理任务,但是这种方式会占用大量的CPU资源,可能会导致其他线程无法正常运行。因此,我们可以使用分治策略来将数据划分成多个小批量进行处理,以避免CPU资源的浪费

import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.stream.IntStream;

public class Demo {
    public static void main(String[] args) {
        ConcurrentHashMap<String, Integer> map = new ConcurrentHashMap<>();

        // 创建10个线程的线程池
        ExecutorService executorService = Executors.newFixedThreadPool(10);

        // 将100000个元素划分成100个小批量,每个小批量包含1000个元素
        int batchSize = 1000;
        IntStream.range(0, 100).forEach(i -> {
            int start = i * batchSize;
            int end = Math.min((i + 1) * batchSize, 100000);
            executorService.submit(() -> {
                IntStream.range(start, end).forEach(j -> {
                    String key = "key" + j;
                    Integer value = j;
                    map.put(key, value);
                });
            });
        });

        // 关闭线程池
        executorService.shutdown();

        // 输出map的大小
        System.out.println("map size: " + map.size());
    }
}
  • 在这个示例中,我们将100000个元素划分成100个小批量,每个小批量包含1000个元素。对于每个小批量,我们将其交给线程池中的线程来处理。由于使用了分治策略,避免了CPU资源的浪费,可以提高程序的效率。最终,我们输出map的大小,可以看到其大小为100000,符合预期。

🍑我们使用了线程池和分治策略来优化程序效率。然而,当元素数量较大时,遍历数据仍然会消耗大量的时间和资源。为了进一步提高程序效率,我们可以使用并发流和批量添加元素的方式来处理数据。

import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.stream.IntStream;

public class Demo {
    public static void main(String[] args) {
        ConcurrentHashMap<String, Integer> map = new ConcurrentHashMap<>();

        // 创建10个线程的线程池
        ExecutorService executorService = Executors.newFixedThreadPool(10);

        // 将100000个元素划分成100个小批量,每个小批量包含1000个元素
        int batchSize = 1000;
        IntStream.range(0, 100).forEach(i -> {
            int start = i * batchSize;
            int end = Math.min((i + 1) * batchSize, 100000);
            executorService.submit(() -> {
                ConcurrentHashMap<String, Integer> batchMap = new ConcurrentHashMap<>();
                IntStream.range(start, end).forEach(j -> {
                    String key = "key" + j;
                    Integer value = j;
                    batchMap.put(key, value);
                });
                map.putAll(batchMap);
            });
        });

        // 关闭线程池
        executorService.shutdown();

        // 输出map的大小
        System.out.println("map size: " + map.size());
    }
}
  • 在这个示例中,我们使用了并发流来遍历1000个元素,并使用ConcurrentHashMap批量添加元素。每个小批量的元素都是由一个线程处理,然后将结果合并到总的map中。这种方式可以有效地减少数据遍历的时间和资源消耗。最终,我们输出map的大小,可以看到其大小为100000,符合预期。

🍑我们使用了分治策略、线程池和并发流来优化程序效率。尽管这些方法可以提高程序效率,但当元素数量非常大时,仍然可能会遇到性能瓶颈。为了进一步提升程序性能,使用Spark框架进行并行计算

import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.api.java.function.Function2;
import org.apache.spark.sql.SparkSession;

import java.util.concurrent.ConcurrentHashMap;

public class Demo {
    public static void main(String[] args) {
        // 创建SparkSession和JavaSparkContext
        SparkSession sparkSession = SparkSession.builder().master("local[*]").appName("Demo").getOrCreate();
        JavaSparkContext sparkContext = new JavaSparkContext(sparkSession.sparkContext());

        // 创建100万个元素的JavaRDD
        int size = 1000000;
        JavaRDD<Integer> rdd = sparkContext.parallelize(java.util.Arrays.asList(new Integer[size]), 10)
                .mapPartitions(iterator -> {
                    ConcurrentHashMap<String, Integer> map = new ConcurrentHashMap<>();
                    while (iterator.hasNext()) {
                        Integer value = iterator.next();
                        String key = "key" + value;
                        map.put(key, value);
                    }
                    return java.util.Arrays.asList(map).iterator();
                })
                .reduce((Function2<ConcurrentHashMap<String, Integer>, ConcurrentHashMap<String, Integer>, ConcurrentHashMap<String, Integer>>) (m1, m2) -> {
                    m1.putAll(m2);
                    return m1;
                });

        // 输出RDD中的元素数量
        System.out.println("RDD size: " + rdd.count());
    }
}

🍑SparkSession sparkSession = SparkSession.builder().master("local[*]").appName("Demo").getOrCreate();是干什么的?

  • 这段代码是在创建一个SparkSession对象,它是Spark 2.x版本中的入口点,可以让我们与Spark集群进行交互。在这里,我们使用了builder()方法来构建一个SparkSession.Builder对象,并通过master()方法指定了本地运行模式(local[*])和应用程序名称(Demo)。
  • 其中,local[*]表示使用所有可用的核心数,在本地模式下运行Spark应用程序,这样可以方便我们进行测试和开发。在真实生产环境中,需要指定Spark集群的URL或者其他连接信息。
  • 最后,使用getOrCreate()方法来获取或创建一个SparkSession对象。如果已经存在一个
  • 可用的SparkSession对象,则直接返回该对象;否则,会新建一个SparkSession对象。

🍑Apache Cassandra分布式数据库进行分布式存储和查询

import com.datastax.driver.core.Cluster;
import com.datastax.driver.core.ResultSet;
import com.datastax.driver.core.Row;
import com.datastax.driver.core.Session;
import java.util.UUID;
import java.util.concurrent.ConcurrentHashMap;

public class Demo {
    public static void main(String[] args) {
        // 创建一个Cassandra集群对象,和一个Session对象
        Cluster cluster = Cluster.builder().addContactPoint("127.0.0.1").build();
        Session session = cluster.connect();

        // 创建一个名为my_keyspace的keyspace
        String keyspace_name = "my_keyspace";
        session.execute(String.format("CREATE KEYSPACE IF NOT EXISTS %s WITH replication = {'class':'SimpleStrategy', 'replication_factor':1};", keyspace_name));

        // 创建一个名为my_table的table
        String table_name = "my_table";
        session.execute(String.format("CREATE TABLE IF NOT EXISTS %s.%s (key text PRIMARY KEY, value int);", keyspace_name, table_name));

        // 向表中添加100万个元素
        ConcurrentHashMap<String, Integer> map = new ConcurrentHashMap<>();
        for(int i = 0; i < 1000000; i++) {
            String key = "key" + UUID.randomUUID().toString();
            Integer value = i;
            map.put(key, value);
        }
        for(String key: map.keySet()) {
            Integer value = map.get(key);
            session.execute(String.format("INSERT INTO %s.%s (key,value) VALUES ('%s',%d);", keyspace_name, table_name, key, value));
        }

        // 查询表中的所有元素
        ResultSet resultSet = session.execute(String.format("SELECT * FROM %s.%s;", keyspace_name, table_name));
        ConcurrentHashMap<String, Integer> resultMap = new ConcurrentHashMap<>();
        for(Row row: resultSet) {
            String key = row.getString(0);
            Integer value = row.getInt(1);
            resultMap.put(key, value);
        }

        // 输出查询结果
        System.out.println("result size: " + resultMap.size());

        // 关闭Session和Cluster对象
        session.close();
        cluster.close();
    }
}
  • 示例中,我们首先创建了一个Cassandra集群对象和一个Session对象,然后声明一个名为my_keyspace的keyspace和一个名为my_table的table。接着,我们向表中添加100万个元素,并在查询结果中验证数据的完整性。
  • 使用分布式数据库可以轻松地将数据存储到多个节点上,并且可以支持复杂的查询和聚合操作。同时,使用分布式数据库还可以提高系统的可伸缩性和容错性,适用于处理大规模数据的场景。

🍑Redis作为分布式缓存

我们还可以使用分布式缓存来提高程序的性能。具体来说,可以使用一个高性能的内存访问数据库,如Redis或Memcached,将结果缓存起来,以减少每次查询时要读取磁盘或远程服务器的数据量。

import redis.clients.jedis.Jedis;
import java.util.HashMap;
import java.util.Map;
import java.util.UUID;

public class Demo {
    public static void main(String[] args) {

        // 连接本地Redis服务
        Jedis jedis = new Jedis("localhost");

        // 创建一个名为my_table的HashMap
        Map<String, Integer> map = new HashMap<>();
        for(int i = 0; i < 1000000; i++) {
            String key = "key" + UUID.randomUUID().toString();
            Integer value = i;
            map.put(key, value);
        }

        // 将HashMap中的元素存入Redis缓存中
        for(String key: map.keySet()) {
            Integer value = map.get(key);
            jedis.set(key, String.valueOf(value));
        }

        // 查询缓存中的所有元素
        Map<String, String> resultMap = jedis.hgetAll("*");

        // 输出查询结果
        System.out.println("result size: " + resultMap.size());

        // 关闭Jedis连接
        jedis.close();
    }
}
  • 示例中,我们首先连接到一个名为localhost的Redis服务,并声明一个名为my_table的HashMap。然后,我们向HashMap中添加100万个元素,并使用Redis将元素存储到缓存中。接着,我们查询缓存中的所有元素,并验证数据的完整性。
  • 使用分布式缓存可以将数据存储在内存中,减少了磁盘或远程服务器的访问次数,从而提高了程序的效率和响应速度。如果数据量较小,可以直接将数据存储在单机内存中,使用本地缓存来实现类似的功能。
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
ConcurrentHashMap是一个专为高并发场景而设计的哈希表,它是基于HashMap实现的。在多线程并发的情况下,HashMap是线程不安全的,可能会引发死循环、死锁等问题。尽管在JDK8之后HashMap解决了死锁问题,但仍然存在其他多线程问题,例如数据丢失。为了解决这些问题,引入了ConcurrentHashMapConcurrentHashMap的实现机制是将整个哈希表分为多个Segment段,每个Segment都是一个独立的哈希表,这些Segment共同保存在一个名为segments的数组中。通过这种方式,ConcurrentHashMap实现了对不同Segment的并发访问,从而提高了并发性能。 在JDK 1.7版本中,ConcurrentHashMap的实现方式与HashMap基本相同,只是将操作放在单线程中执行,避免了HashMap在扩容时可能出现的死循环问题,从而保证了线程安全性。 总的来说,ConcurrentHashMap通过分段锁的方式,提供了更好的并发性能,解决了Java高并发环境下HashMap的线程安全问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [JAVA并发集合之ConcurrentHashMap](https://blog.csdn.net/huxing998/article/details/129157146)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

是汤圆丫

怎么 给1分?

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值