浅谈HashMap

HashMap是基于哈希表的 Map 接口的实现。此实现提供所有可选的映射操作,并允许使用 null 值和 null 键。

HashMap可以理解成是数组和链表的结合。当新建一个HashMap时,会自动创建一个长度为16的数组(Entry[] table);一个key-value对(即Entry)放入HashMap中时,首先通过hashCode()获得该key的hash码,通过hash码决定该Entry的存储位置;如果当前存储位置有元素,则比较两个key是否相等(如果有多个元素,则循环迭代比较),相等就用新value替换原有的value,如果不相等,新的Entry和原有的Entry组合形成链(链表结构),新的Entry的next指向原有Entry。

HashMap的性能和“初始容量、加载因子”有关。

  • 容量:是哈希表中数组的长度,初始容量只是哈希表在创建时的容量。
  • 加载因子:是哈希表在其容量自动增加之前可以达到多满的一种尺度。

默认情况下,初始容量为16,加载因子为0.75,在容量不变的情况下,随着key-value对越来越多,hash冲突加剧,导致性能越来越差(需要循环链表进行比较)。所以当HashMap中的条目数超出了加载因子与当前容量的乘积时,则要对该HashMap进行rehash操作(即重建内部数据结构),从而哈希表将具有大约两倍的容量。

扩容完成后,原数组中的元素必须重新计算存储位置,这是个很消耗性能的操作,所以如果我们在创建HashMap时如果能预估出需要的容量大小,则可以在实例化是直接指定其初始容量大小。(new HashMap(int initialCapacity))

除了非同步和允许使用 null 之外,HashMap 类与 Hashtable 大致相同。而Hashtable和ConcurrentHashMap有什么分别呢?

它们都可以用于多线程的环境,但是当Hashtable的大小增加到一定的时候,性能会急剧下降,因为迭代时需要被锁定很长的时间。因为ConcurrentHashMap引入了分割(segmentation),不论它变得多么大,仅仅需要锁定map的某个部分,而其它的线程不需要等到迭代完成才能访问map。简而言之,在迭代的过程中,初始化时容量都是16,ConcurrentHashMap仅仅锁定map的某个位置(可以理解为ConcurrentHashMap有16个Hashtable,加锁时,只锁定其中一个),而Hashtable则会锁定整个map(一个数组)。

这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一个节点

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值