HashMap笔记

引言

hash表的应用场景:快速查找,通过计算桶下标查找元素。
链表过长,查找性能降低,优化方式:扩容或红黑树。
在这里插入图片描述

一、Map继承体系

在这里插入图片描述

二、底层数据结构

在这里插入图片描述
.net中的dictionary就是选用质数作为数组容量,不用二次hash,直接用hashcode值,也能均匀分布,追求的是均匀分布。
而JAVA中的HashMap更注重实现的性能。数组容量为2的n次幂的问题时,如果都是偶数,即使有二次hash,也会造成分布不均匀。

  	![在这里插入图片描述](https://img-blog.csdnimg.cn/0b81b45d75424d419ab4cb06a5e12798.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBAcnVieWVqaA==,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center)

三、put方法流程

在这里插入图片描述
扩容是在元素添加后进行的,添加元素,达到扩容条件,扩容,迁移数据。
源码如下:

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
  Node<K,V>[] tab; Node<K,V> p; int n, i;
  // 如果table 为null 或者没有为 table 分配内存,就resize一次
  if ((tab = table) == null || (n = tab.length) == 0)
    n = (tab = resize()).length;
  // 指定hash值节点为空则直接插入,这个(n - 1) & hash才是表中真正的哈希
  if ((p = tab[i = (n - 1) & hash]) == null)
    tab[i] = newNode(hash, key, value, null);
  // 如果不为空
  else {
    Node<K,V> e; K k;
    // 计算表中的这个真正的哈希值与要插入的key.hash相比
    if (p.hash == hash &&
        ((k = p.key) == key || (key != null && key.equals(k))))
      e = p;
    // 若不同的话,并且当前节点已经在 TreeNode 上了
    else if (p instanceof TreeNode)
      // 采用红黑树存储方式
      e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
    // key.hash 不同并且也不再 TreeNode 上,在链表上找到 p.next==null
    else {
      for (int binCount = 0; ; ++binCount) {
        if ((e = p.next) == null) {
          // 在表尾插入
          p.next = newNode(hash, key, value, null);
          // 新增节点后如果节点个数到达阈值,则进入 treeifyBin() 进行再次判断
          if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
            treeifyBin(tab, hash);
          break;
        }
        // 如果找到了同 hash、key 的节点,那么直接退出循环
        if (e.hash == hash &&
            ((k = e.key) == key || (key != null && key.equals(k))))
          break;
        // 更新 p 指向下一节点
        p = e;
      }
    }
    // map中含有旧值,返回旧值
    if (e != null) { // existing mapping for key
      V oldValue = e.value;
      if (!onlyIfAbsent || oldValue == null)
        e.value = value;
      afterNodeAccess(e);
      return oldValue;
    }
  }
  // map调整次数 + 1
  ++modCount;
  // 键值对的数量达到阈值,需要扩容
  if (++size > threshold)
    resize();
  afterNodeInsertion(evict);
  return null;
}

在这里插入图片描述

jdk1.7 put 过程:
不同的key计算出来的hsahcode值很大,无法直接用作下标,会将hashcode和数组长度进行与运算,得到下标值,这样不同的key下标值可能是一样的。
头插法,插入链表中。
put结果返回的值是原来key对应的值,是老的值,并不是新的值。

四、多线程下的问题

1、扩容死链(1.7)

在这里插入图片描述
在这里插入图片描述
后续访问时,a、b循环引用,造成死循环
在这里插入图片描述

2、 数据错乱(1.7、1.8)

在这里插入图片描述
在这里插入图片描述

五、key能否为null

在这里插入图片描述
对象equals一样,则hashcode一定相同,但hashcode一样的两个对象,不一定equals相等。
key要不可变,例子:
在这里插入图片描述

六、String对象的hashcode如何设计

在这里插入图片描述
使用31,分布性更好,同时方便计算:
在这里插入图片描述

七、扩容机制

jdk 1.8扩容机制

HashMap 中的扩容机制是由 resize() 方法来实现的,1.8实现:

final Node<K,V>[] resize() {
  Node<K,V>[] oldTab = table;
  // 存储old table 的大小
  int oldCap = (oldTab == null) ? 0 : oldTab.length;
  // 存储扩容阈值
  int oldThr = threshold;
  int newCap, newThr = 0;
  if (oldCap > 0) {
    // 如果old table数据已达最大,那么threshold也被设置成最大
    if (oldCap >= MAXIMUM_CAPACITY) {
      threshold = Integer.MAX_VALUE;
      return oldTab;
    }
    // 左移扩大二倍,
    else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
             oldCap >= DEFAULT_INITIAL_CAPACITY)
      // 扩容成原来二倍
      newThr = oldThr << 1; // double threshold
  }
  // 如果oldThr                                                                                                                                               !> 0
  else if (oldThr > 0) // initial capacity was placed in threshold
    newCap = oldThr;
  // 如果old table <= 0 并且 存储的阈值 <= 0
  else {               // zero initial threshold signifies using defaults
    newCap = DEFAULT_INITIAL_CAPACITY;
    newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
  }
  // 如果扩充阈值为0
  if (newThr == 0) {
    // 扩容阈值为 初始容量*负载因子
    float ft = (float)newCap * loadFactor;
    newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
              (int)ft : Integer.MAX_VALUE);
  }
  // 重新给负载因子赋值
  threshold = newThr;
  // 获取扩容后的数组
  @SuppressWarnings({"rawtypes","unchecked"})
  Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
  table = newTab;
  // 如果第一次进行table 初始化不会走下面的代码
  // 扩容之后需要重新把节点放在新扩容的数组中
  if (oldTab != null) {
    for (int j = 0; j < oldCap; ++j) {
      Node<K,V> e;
      if ((e = oldTab[j]) != null) {
        oldTab[j] = null;
        if (e.next == null)
          newTab[e.hash & (newCap - 1)] = e;
        else if (e instanceof TreeNode)
          // 重新映射时,需要对红黑树进行拆分
          ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
        else { // preserve order
          Node<K,V> loHead = null, loTail = null;
          Node<K,V> hiHead = null, hiTail = null;
          Node<K,V> next;
          // 遍历链表,并将链表节点按原顺序进行分组
          do {
            next = e.next;
            if ((e.hash & oldCap) == 0) {
              if (loTail == null)
                loHead = e;
              else
                loTail.next = e;
              loTail = e;
            }
            else {
              if (hiTail == null)
                hiHead = e;
              else
                hiTail.next = e;
              hiTail = e;
            }
          } while ((e = next) != null);
          // 将分组后的链表映射到新桶中
          if (loTail != null) {
            loTail.next = null;
            newTab[j] = loHead;
          }
          if (hiTail != null) {
            hiTail.next = null;
            newTab[j + oldCap] = hiHead;
          }
        }
      }
    }
  }
  return newTab;
}

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
jdk 1.8中HashMap 扩容:
1、先确定新数组的容量和阈值
2、遍历老table,把老的table中数据放到新table中
(1)当前位置只有一个元素,计算元素在新数组中的位置,直接放进去
(2)当前节点已经树化,进行树拆分。拆分成高位链和低位链,两个链中,链的长度小于树退化阈值,树退化成链表;拆分后链表长度大于树退化阈值,仍然是树。
(3)当前桶位是链表,拆分成高位链和低位链放到新table中。
低位链(hash值&oldCap == 0):新table中位置,与当前一致。
高位链(hash值&oldCap == 1):新table中位置,原下标+老容量值。

jdk 1.7扩容机制

jdk 1.7中HashMap 扩容:
当前数组长度的2倍,转移元素,两层遍历,遍历数组和链表,获取下标,将元素的next指向新数组的头部,头部的next指转移的元素,头插法。
计算下标时,一般是扩容后的长度+原来的下标值。
rehash,只有扩容后的长度大于2的30次方,才会进行rehash,重新计算hash值。一般不会rehash。除非修改JVM中的参数。
1.7中扩容后的问题是,原来链表中的数据是1、2、3,扩容后的顺序变成了3、2、1.单线程的时候没有太大问题,但多线程时会有问题。

 void resize(int newCapacity) {
     Entry[] oldTable = table;
     int oldCapacity = oldTable.length;
     if (oldCapacity == MAXIMUM_CAPACITY) {
         threshold = Integer.MAX_VALUE;
         return;
     }

     Entry[] newTable = new Entry[newCapacity];
     transfer(newTable, initHashSeedAsNeeded(newCapacity));
     table = newTable;
     threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);
 }

代码中可以看到,如果原有table长度已经达到了上限,就不再扩容了。
如果还未达到上限,则创建一个新的table,并调用transfer方法:

/**
     * Transfers all entries from current table to newTable.
     */
    void transfer(Entry[] newTable, boolean rehash) {
        int newCapacity = newTable.length;
        for (Entry<K,V> e : table) {
            while(null != e) {
                Entry<K,V> next = e.next;              //注释1
                if (rehash) {
                    e.hash = null == e.key ? 0 : hash(e.key);
                }
                int i = indexFor(e.hash, newCapacity); //注释2
                e.next = newTable[i];                  //注释3
                newTable[i] = e;                       //注释4
                e = next;                              //注释5
            }
        }
    }

transfer方法的作用是把原table的Node放到新的table中,使用的是头插法,也就是说,新table中链表的顺序和旧列表中是相反的,在HashMap线程不安全的情况下,这种头插法可能会导致环状节点。
jdk1.8解决了这个问题,扩容后的顺序不会改变。

八、1.7与1.8不同汇总

1、底层数据结构不同

1.7 数组+ 链表,1.8 数组 + 链表 + 红黑树

2、put过程中的区别

1、链表插入节点时,1.7是头插法,1.8是尾插法
2、1.7是大于等于阈值且没有空位时才扩容,1.8是大于阈值就扩容
3、1.8在扩容计算Node索引时,会优化

3、扩容过程中的区别

1、1.7中扩容后会改变链表中数据原来的顺序。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值