容器--Map之HashMap源码解析

本文参考:https://blog.csdn.net/m0_37914588/article/details/82287191

HashMap

HashMap是基于哈希表实现的,每个元素都是一个键值对(key-value)。

HashMap在JDK1.7和JDK1.8中变化比较大,在JDK1.7中,HashMap的底层是采用以个Entry数组来存储数据,当发生hash冲突时,采用链地址法(即链表存储相同hashcode的元素)来解决。而在JDK1.8的HashMap使用一个Node数组来存储数据,但当存储元素的链表超过阈值之后,会将链表转换为红黑树,查询时间从O(n)转换为O(logn)。

接下来就让我们进入HashMap的源码吧(以下源码为1.8)!

首先我们来看看HashMap的属性

//数组的初始化容量-数值必须时2的幂
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;

//最大容量,可以使用一个带参数的构造函数来隐式的改变容量大小,但必须时2的幂且小于等于1<<30
static final int MAXIMUM_CAPACITY = 1 << 30;

//负载因子初始值
static final float DEFAULT_LOAD_FACTOR = 0.75f;

//使用树(而不是列表)来设置bin计数阈值。当向至少具有这么多节点的bin添加元素时,bin将转换为树。该值必须大于2,并且应该至少为8,以便与删除树时关于转换回普通桶的假设相匹配收缩。
static final int TREEIFY_THRESHOLD = 8;

//当桶(bucket)上的结点数小于该值是应当树转链表
static final int UNTREEIFY_THRESHOLD = 6;

//桶中结构转化为红黑树时对应的table的最小值
static final int MIN_TREEIFY_CAPACITY = 64;

//tables数组,在必要时会重新调整大小,但长度总是2的幂
transient Node<K,V>[] table;

//保存缓存的entrySet()。注意,使用了AbstractMap字段用于keySet()和values()。
transient Set<Map.Entry<K,V>> entrySet;

//在该map中映射的key-value对数量
transient int size;

//这个HashMap在结构上被修改的次数结构修改是指改变HashMap中映射的数量或修改其内部结构的次数(例如,rehash)。此字段用于使HashMap集合视图上的迭代器快速失效。(见ConcurrentModificationException)。
transient int modCount;

//要下一次调整大小的临界值(capacity * load factor)
int threshold;

//哈希表的加载因子
final float loadFactor;

//内部类Node,用于存放元素
static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;
        V value;
        Node<K,V> next;
 
        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }
}

很多人不知道这个负载因子的变量是干什么用的,负载因子表示一个散列表的使用程度。有这样一个公式:initailCapacity*loadFactor=HashMap的容量。可以看出,当自定义容量不变的时候,负载因子越大,散列表在该容量下可以装填的元素越多,但是由此会导致链表更长,索引的效率降低。如果负载因子过小,则会导致散列表中的元素很少,对空间造成浪费。

接下来是HashMap的构造函数。

构造函数
HashMap()

构造一个空的 HashMap ,默认初始容量(16)和默认负载系数(0.75)。

HashMap(int initialCapacity)

构造一个空的 HashMap具有指定的初始容量和默认负载因子(0.75)。

HashMap(int initialCapacity, float loadFactor)

构造一个空的 HashMap具有指定的初始容量和负载因子。

HashMap(Map<? extends K,? extends V> m)

构造一个新的 HashMap与指定的相同的映射 Map 。

源码如下

    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; 
    }
 
 
    public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }
 
 
    public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
    }

可以看出,HashMap提供了一个修改初始化容量和负载因子的构造方法,这样我们可以根据不同的使用环境,来决定我们HashMap的负载因子应该为多少。

接下来看看HashMap一些常用的方法。

返回类型方法名(参数)
voidclear()

从这张地图中删除所有的映射。

Objectclone()

返回此 HashMap实例的浅拷贝:键和值本身不被克隆。

booleancontainsKey(Object key)

如果此映射包含指定键的映射,则返回 true 。

voidforEach(BiConsumer<? super K,? super V> action)

对此映射中的每个条目执行给定的操作,直到所有条目都被处理或操作引发异常。

Vget(Object key)

返回到指定键所映射的值,或 null如果此映射包含该键的映射。

booleanisEmpty()

如果此地图不包含键值映射,则返回 true 。

Set<K>keySet()

返回此地图中包含的键的Set视图。

Vput(K key, V value)

将指定的值与此映射中的指定键相关联。

voidputAll(Map<? extends K,? extends V> m)

将指定地图的所有映射复制到此地图。

Vremove(Object key)

从该地图中删除指定键的映射(如果存在)。

booleanremove(Object key, Object value)

仅当指定的密钥当前映射到指定的值时删除该条目。

Vreplace(K key, V value)

只有当目标映射到某个值时,才能替换指定键的条目。

voidreplaceAll(BiFunction<? super K,? super V,? extends V> function)

将每个条目的值替换为对该条目调用给定函数的结果,直到所有条目都被处理或该函数抛出异常。

intsize()

返回此地图中键值映射的数量。

 

我们通过put()和remove()两个最常用的方法来了解一下HashMap的增删过程。

在看这两个方法的源码之前,我们需要先来看看HashMap是如何计算哈希值的。

    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

put()方法

    public V put(K key, V value) {
        //四个参数,第一个hash值,第四个参数表示如果该key存在值,如果为null的话,则插入新的value,最后一个参数,在hashMap中没有用,可以不用管,使用默认的即可*
        return putVal(hash(key), key, value, false, true);
    }
 
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        //tab 哈希数组,p 该哈希桶的首节点,n hashMap的长度,i 计算出的数组下标
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //获取长度并进行扩容,使用的是懒加载,table一开始是没有加载的,等put后才开始加载
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        //如果计算出的该哈希桶的位置没有值,则把新插入的key-value放到此处,此处就算没有插入成功,也就是发生哈希冲突时也会把哈希桶的首节点赋予p
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        //发生哈希冲突的几种情况
        else {
            // e 临时节点的作用, k 存放该当前节点的key 
            Node<K,V> e; K k;
            //第一种,插入的key-value的hash值,key都与当前节点的相等,e = p,则表示为首节点
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            //第二种,hash值不等于首节点,判断该p是否属于红黑树的节点
            else if (p instanceof TreeNode)
                //为红黑树的节点,则在红黑树中进行添加,如果该节点已经存在,则返回该节点(不为null),该值很重要,用来判断put操作是否成功,如果添加成功返回null
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            //第三种,hash值不等于首节点,不为红黑树的节点,则为链表的节点
            else {
                //遍历该链表
                for (int binCount = 0; ; ++binCount) {
                    //如果找到尾部,则表明添加的key-value没有重复,在尾部进行添加
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        //判断是否要转换为红黑树结构
                        if (binCount >= TREEIFY_THRESHOLD - 1) 
                            treeifyBin(tab, hash);
                        break;
                    }
                    //如果链表中有重复的key,e则为当前重复的节点,结束循环
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            //有重复的key,则用待插入值进行覆盖,返回旧值。
            if (e != null) { 
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        //到了此步骤,则表明待插入的key-value是没有key的重复,因为插入成功e节点的值为null
        //修改次数+1
        ++modCount;
        //实际长度+1,判断是否大于临界值,大于则扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        //添加成功
        return null;
    }

插入过程可以总结为一下几个步骤:

  1. 计算索引
  2. 检查是否hash冲突,不发生则直接插入
  3. 发生hash冲突后,判断插入方式,是链表插入还是红黑树插入
  4. 如果key重复,覆盖值
  5. 计算容量,是否进行扩容

HashMap计算索引的方式为:hash&(length-1)。

HashMap的扩容机制

    final Node<K,V>[] resize() {
        //把没插入之前的哈希数组做oldTal
        Node<K,V>[] oldTab = table;
        //old的长度
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        //old的临界值
        int oldThr = threshold;
        //初始化new的长度和临界值
        int newCap, newThr = 0;
        //oldCap > 0也就是说不是首次初始化,因为hashMap用的是懒加载
        if (oldCap > 0) {
            //大于最大值
            if (oldCap >= MAXIMUM_CAPACITY) {
                //临界值为整数的最大值
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            //标记##,其它情况,扩容两倍,并且扩容后的长度要小于最大值,old长度也要大于16
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                //临界值也扩容为old的临界值2倍
                newThr = oldThr << 1; 
        }
        //如果oldCap<0,但是已经初始化了,像把元素删除完之后的情况,那么它的临界值肯定还存在,如果是首次初始化,它的临界值则为0
        
        else if (oldThr > 0) 
            newCap = oldThr;
        //首次初始化,给与默认的值
        else {               
            newCap = DEFAULT_INITIAL_CAPACITY;
            //临界值等于容量*加载因子
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        //此处的if为上面标记##的补充,也就是初始化时容量小于默认值16的,此时newThr没有赋值
        if (newThr == 0) {
            //new的临界值
            float ft = (float)newCap * loadFactor;
            //判断是否new容量是否大于最大值,临界值是否大于最大值
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        //把上面各种情况分析出的临界值,在此处真正进行改变,也就是容量和临界值都改变了。
        threshold = newThr;
        //表示忽略该警告
        @SuppressWarnings({"rawtypes","unchecked"})
            //初始化
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        //赋予当前的table
        table = newTab;
        //此处自然是把old中的元素,遍历到new中
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                //临时变量
                Node<K,V> e;
                //当前哈希桶的位置值不为null,也就是数组下标处有值,因为有值表示可能会发生冲突
                if ((e = oldTab[j]) != null) {
                    //把已经赋值之后的变量置位null,当然是为了好回收,释放内存
                    oldTab[j] = null;
                    //如果下标处的节点没有下一个元素
                    if (e.next == null)
                        //把该变量的值存入newCap中,e.hash & (newCap - 1)并不等于j
                        newTab[e.hash & (newCap - 1)] = e;
                    //该节点为红黑树结构,也就是存在哈希冲突,该哈希桶中有多个元素
                    else if (e instanceof TreeNode)
                        //把此树进行转移到newCap中
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { 
                        //此处表示为链表结构,同样把链表转移到newCap中,就是把链表遍历后,把值转过去,在置位null
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        //返回扩容后的hashMap
        return newTab;
    }

可能源码看起来很吃力,但是耐心看下去就会发现其实也没有那么难。在这么长的代码里,我们其实需要关注的就是HashMap具体的扩容方式:newThr = oldThr << 1,也就是将原来的容量乘2。那么为什么偏偏是乘2呢?

乘2可以保证扩容后的容量为偶数,且方便于扩容后重新分桶的操作。上边讲过HashMap计算索引的方式是hash&(length-1)。如果length为奇数,就会导致length-1转换为二进制后末位为0,从而使得奇数索引没有用到,浪费了一半的内存空间。

那么它又是如何方便分桶的呢?假设我们桶的长度为4,扩容后为8。那么我们进行重新分桶时,原先桶0的元素只会分配到新的桶0和桶4,原桶1只会分配到新的桶1和桶5,以此类推。减少了重新分桶的hash冲突,肯定方便重新分桶呀。

扩容的时机也是一个知识点。什么时候进行扩容呢,HashMap中规定了一个阈值(阈值=容量*负载因子,初始阈值为16*0.75=12),当HashMap中存储的元素超过这个阈值时,HashMap就会采取一个扩容操作。

remove()

    public V remove(Object key) {
        //临时变量
        Node<K,V> e;
        //调用removeNode(hash(key), key, null, false, true)进行删除,第三个value为null,表示,把key的节点直接都删除了,不需要用到值,如果设为值,则还需要去进行查找操作
        return (e = removeNode(hash(key), key, null, false, true)) == null ?
            null : e.value;
    }
    
    //第一参数为哈希值,第二个为key,第三个value,第四个为是为true的话,则表示删除它key对应的value,不删除key,第四个如果为false,则表示删除后,不移动节点
    final Node<K,V> removeNode(int hash, Object key, Object value,
                               boolean matchValue, boolean movable) {
        //tab 哈希数组,p 数组下标的节点,n 长度,index 当前数组下标
        Node<K,V>[] tab; Node<K,V> p; int n, index;
        //哈希数组不为null,且长度大于0,然后获得到要删除key的节点所在是数组下标位置
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (p = tab[index = (n - 1) & hash]) != null) {
            //nodee 存储要删除的节点,e 临时变量,k 当前节点的key,v 当前节点的value
            Node<K,V> node = null, e; K k; V v;
            //如果数组下标的节点正好是要删除的节点,把值赋给临时变量node
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                node = p;
            //也就是要删除的节点,在链表或者红黑树上,先判断是否为红黑树的节点
            else if ((e = p.next) != null) {
                if (p instanceof TreeNode)
                    //遍历红黑树,找到该节点并返回
                    node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
                else { //表示为链表节点,一样的遍历找到该节点
                    do {
                        if (e.hash == hash &&
                            ((k = e.key) == key ||
                             (key != null && key.equals(k)))) {
                            node = e;
                            break;
                        }
                        /**注意,如果进入了链表中的遍历,那么此处的p不再是数组下标的节点,而是要删除结点的上一个结点**/
                        p = e;
                    } while ((e = e.next) != null);
                }
            }
            //找到要删除的节点后,判断!matchValue,我们正常的remove删除,!matchValue都为true
            if (node != null && (!matchValue || (v = node.value) == value ||
                                 (value != null && value.equals(v)))) {
                //如果删除的节点是红黑树结构,则去红黑树中删除
                if (node instanceof TreeNode)
                    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
                //如果是链表结构,且删除的节点为数组下标节点,也就是头结点,直接让下一个作为头
                else if (node == p)
                    tab[index] = node.next;
                else /**为链表结构,删除的节点在链表中,把要删除的下一个结点设为上一个结点的下一个节点**/
                    p.next = node.next;
                //修改计数器
                ++modCount;
                //长度减一
                --size;
                //此方法在hashMap中是为了让子类去实现,主要是对删除结点后的链表关系进行处理
                afterNodeRemoval(node);
                //返回删除的节点
                return node;
            }
        }
        //返回null则表示没有该节点,删除失败
        return null;
    }

remove()的过程其实与其他容器的差不多,就是寻址、删除。在这里就不多讲。

链表转红黑树的时机

链表转红黑树的时机由两个变量决定TREEIFY_THRESHOLD(默认为8)和MIN_TREEIFY_CAPACITY(默认为64)当HashMap中元素的个数小于MIN_TREEIFY_CAPACITY时,HashMap优先采用扩容的方式,而不是采用树化。当元素个数超过了6MIN_TREEIFY_CAPACITY的值后,我们通过TREEIFY_THRESHOLD来决定是否树化,当一个链表的长度超过TREEIFY_THRESHOLD后,就会将链表转化为红黑树。

HashMap的特点

  1. HashMap的key不可重复,key和value允许为null
  2. HashMap是非线程安全的,只能在单线程的环境下使用,多线程环境需要外部加锁

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值