HashMap核心源码分析

1.HashMap总览

1.1 hashmap底层储存结构图解

底层结构其实就是数组+链表+红黑树

1.2 HashMap类定义

先来看看HashMap的定义:

public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable {}

从中我们可以了解到:

  • HashMap<K,V>:HashMap是以key-value形式存储数据的。
  • extends AbstractMap<K,V>:继承了AbstractMap,大大减少了实现Map接口时需要的工作量。
  • implements Map<K,V>:实现了Map,提供了所有可选的Map操作。
  • implements Cloneable:表明其可以调用clone()方法来返回实例的field-for-field拷贝。
  • implements Serializable:表明该类是可以序列化的。

1.3 put()数据原理分析图解

蓝色table的长度是2的多少次方;哈希冲突,链表很长时间复杂度会退化为o(n),长度过长,退化为红黑树查找效率会更高;扩容本质是空间换时间,有更多的槽位,链表更短

1.4 一些名词

  1. hashmap的底层数据结构名为table的数组,是一个Node数组
  2. table数组中的每个元素是一个Node元素(但是这个Node元素可能指向下一个Node元素从而形成链表),table数组的每个位置称为桶,比如talbe[0] 称为一个桶,也可以称为一个bin

2. HashMap.java源码

2.1 核心属性分析

静态常量

/**
     * The default initial capacity - MUST be a power of two.
     * 缺省table大小,默认的初始容量,必须是二的次方
     */
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    /**
     * The maximum capacity, used if a higher value is implicitly specified
     * by either of the constructors with arguments.
     * MUST be a power of two <= 1<<30.
     * 
     * 最大容量,当通过构造函数隐式指定了一个大于MAXIMUM_CAPACITY的时候使用
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     * The load factor used when none specified in constructor.
     *缺省负载因子大小,当构造函数没有指定加载因子的时候的默认值的时候使用
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     * The bin count threshold for using a tree rather than list for a
     * bin.  Bins are converted to trees when adding an element to a
     * bin with at least this many nodes. The value must be greater
     * than 2 and should be at least 8 to mesh with assumptions in
     * tree removal about conversion back to plain bins upon
     * shrinkage.
     * 
     * 树化阈值
     * TREEIFY_THRESHOLD为当一个bin从list转化为tree的阈值,当一个bin中元素的总元素最低超过这个值的时候,bin才被转化为tree;
     * 为了满足转化为简单bin时的要求,TREEIFY_THRESHOLD必须比2大而且比8要小
     */
    static final int TREEIFY_THRESHOLD = 8;

    /**
     * The bin count threshold for untreeifying a (split) bin during a
     * resize operation. Should be less than TREEIFY_THRESHOLD, and at
     * most 6 to mesh with shrinkage detection under removal.
     * 
     * 树降级为链表的阈值
     * bin反tree化时的最大值,应该比TREEIFY_THRESHOLD要小,
     * 为了在移除元素的时候能检测到移除动作,UNTREEIFY_THRESHOLD必须至少为6
     */
    static final int UNTREEIFY_THRESHOLD = 6;

    /**
     * The smallest table capacity for which bins may be treeified.
     * (Otherwise the table is resized if too many nodes in a bin.)
     * Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts
     * between resizing and treeification thresholds.
     * 
     * 树化的另外一个阈值,哈希表中所有元素超过64时,才允许树化,也就是table的长度(注意不是bin的长度)的最小得为64才树化。
     * 为了避免扩容和树型结构化阈值之间的冲突,MIN_TREEIFY_CAPACITY 应该最小是 4 * TREEIFY_THRESHOLD
     */
    static final int MIN_TREEIFY_CAPACITY = 64;
   

成员变量

 /**
     * The table, initialized on first use, and resized as
     * necessary. When allocated, length is always a power of two.
     * (We also tolerate length zero in some operations to allow
     * bootstrapping mechanics that are currently not needed.)
     * 
     * 哈希表(table),第一次被使用的时候才进行加载
     */
    transient Node<K,V>[] table;

    /**
     * Holds cached entrySet(). Note that AbstractMap fields are used
     * for keySet() and values().
     * 键值对缓存,它们的映射关系集合保存在entrySet中。即使Key在外部修改导致hashCode变化,缓存中还可以找到映射关系
     */
    transient Set<Map.Entry<K,V>> entrySet;

    /**
     * The number of key-value mappings contained in this map.
     * table中 key-value 元素的个数(当前哈希表元素个数)
     */
    transient int size;

    /**
     * The number of times this HashMap has been structurally modified
     * Structural modifications are those that change the number of mappings in
     * the HashMap or otherwise modify its internal structure (e.g.,
     * rehash).  This field is used to make iterators on Collection-views of
     * the HashMap fail-fast.  (See ConcurrentModificationException).
     * 
     * HashMap在结构上被修改的次数,结构上被修改是指那些改变HashMap中映射的数量或者以其他方式修改其内部结构的次数(例如,rehash)。
     * 替换不叫修改
     * 此字段用于使HashMap集合视图上的迭代器快速失败。
     */
    transient int modCount;

    /**
     * The next size value at which to resize (capacity * load factor).
     *
     * 下一次resize扩容阈值,当前哈希表中的元素超过此值时,触发扩容
     * threshold = capacity * load factor
     * @serial
     */
    // (The javadoc description is true upon serialization.
    // Additionally, if the table array has not been allocated, this
    // field holds the initial array capacity, or zero signifying
    // DEFAULT_INITIAL_CAPACITY.(???????))
    int threshold;//扩容阈值

    /**
     * The load factor for the hash table.
     * 负载因子,默认0.75;threshold=capacity*loadFactor
     * @serial
     */
    final float loadFactor;

2.2 构造方法分析

仅仅看最长参数的构造方法就行了,其它三个都是调用了此构造方法:

 public HashMap(int initialCapacity, float loadFactor) {
        //做了一些校验
        //capacity必须大于0,最大值也就是Max_cap
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                    initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
            //loadFactor必须大于0
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                    loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
        //initialCapacity为7,生成8;initialCapacity为9,生成16
    }

    /**
     * Returns a power of two size for the given target capacity.
     * 
     * 1.返回一个大于等于当前值cap的一个的数字,并且这个数字一定是2的次方数
     * 假如cap为10,那么n= 9 = 0b1001
     * 0b1001 | 0b0100 = 0b1101
     * 0b1101 | 0b0011 = 0b1111
     * 0b1111 | 0b0011 = 0b1111
     * ......
     * .....
     * n = 0b1111 = 15
     * return 15+1
     * 
     * 2.这里的cap必须要减1,如果不减,并且如果传入的cap为16,那么算出来的值为32
     * 
     * 3.这个方法就是为了把最高位1的后面都变为1
     * 0001 1101 1100 -> 0001 1111 1111 -> +1 -> 0010 0000 0000 一定是2的次方数
     */
    static final int tableSizeFor(int cap) {
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;//右移2位
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
        //+1进一位,后面都是0,一定是2的幂次方
    }

2.3 put方法分析

路由算法:(l-1)&hashcode=index;//l开始为16/32/64,index是要放的位置

/**
     * @param key key with which the specified value is to be associated
     * @param value value to be associated with the specified key
     * @return the previous value associated with key, or
     *         null if there was no mapping for key.
     *         (A null return can also indicate that the map
     *         previously associated null with key.)
     *         返回先前key对应的value值(如果value为null,也返回null),如果先前不存在这个key,那么返回的就是null;
     */
    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }
    /
    * 在往haspmap中插入一个元素的时候,由元素的hashcode经过一个扰动函数之后
    再与table的长度进行与运算才找到插入位置,下面的这个hash()方法就是所谓的
    扰动函数;^异或:相同返回0,不同返回1
     * 作用:***让key的hashCode值的高16位参与运算***,hash()方法返回的值的低十六位
     是有hashCode的高16位共同的特征的
     * 举例
     * hashCode = 0b 0010 0101 1010 1100  0011 1111 0010 1110
     * 
     *     0b 0010 0101 1010 1100  0011 1111 0010 1110  ^ 
     *     0b 0000 0000 0000 0000  0010 0101 1010 1100 //右移16位
     *     =>0b 0010 0101 1010 1100  0001 1010 1000 0010
     */
    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        // tab表示当前hashmap的散列表(table)
        // p表示散列表的元素
        // n表示散列表的长度
        // i表示路由寻址结果
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        
        // ***延迟初始化逻辑,第一次调用putval()方法的时候才进行初始化hashmap中最耗内存的散列表
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        
        // 1.最简单的一种情况,寻找到的桶位,刚好是null,这个时候直接构建Node节点放进去就行了
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        
         
        else {
            // e,如果key不为null,并且找到了当前要插入的key一致的node元素,
            就保存在e中
            // k表示一个临时的key
            Node<K,V> e; K k;
            
            // 2.表示该桶位中的第一个元素与你当前插入的node元素的key一致,表示后序要
            //进行替换操作
            if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            
            // 3.表示当前桶位已经树化了
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            
            // 4.当前捅位是一个链表
            else {
                //链表的头元素与要插入的key不一致
                for (int binCount = 0; ; ++binCount) {
                    // 4.1 迭代到最后一个元素了也没有找到要插入的key一致的node
                    //***说明需要加入当前链表的末尾
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        //条件成立的话,说明当前链表的长度达到树化的标准了,需要进行树化
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);//触发树化的操作
                        break;
                    }

                    // 4.2 找到了与要插入的key一致的node元素
                    //e表示当前元素的下一个,e.hash == hash,e的hash值与要插入的hash值一致
                    //***条件成立的话说明找到了相同key的node元素,需要进行替换
                    if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            // 如果找到了与要插入的key一致的node元素,那么进行替换(2和4.2的情况)
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        // modeCount表示散列表table结构的修改次数,替换Node元素的value不计数
        ++modCount;
        //插入新元素,size自增,如果自增后的值大于扩容阈值,则触发扩容
        if (++size > threshold)
            resize();//触发扩容
        afterNodeInsertion(evict);
        return null;
    }

2.4 resize方法分析

为了解决哈希冲突导致的链化影响,扩容会缓解该问题。

当在table长度位16中的元素移到table长度位32的table中的时候;我们可以知道,原来在15这个槽位的元素的hash()值的后四位一定是1111(因为跟1111即table长度-1 进行与运算得到了1111)。所以所以当table长度变为32的时候,原来在15这个槽位的元素要么还在15这个槽位,要么在31这个操作(因为原来15这个槽位的元素后五位一定是11111或者01111,跟 11111即table新长度-1 进行与运算一定得到 01111或者11111)

/**
 * 对table进行初始化或者扩容。
 * 如果table为null,则对table进行初始化
 * 如果对table扩容,因为每次扩容都是翻倍,与原来计算(n-1)&hash的结果相比,节点要么就在原来的位置,要么就被分配到“原位置+旧容量”这个位置。
 */
    final Node<K,V>[] resize() {
        //引用扩容前的哈希表
        Node<K,V>[] oldTab = table;
        // oldCap表示扩容之前table数组的长度
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        // oldThr表示本次扩容之前的阈值,触发本次扩容操作的阈值
        int oldThr = threshold;
        // ***newCap:表示扩容之后table数组的大小;***newThr表示扩容之后,下次出发扩容的条件,新的扩容阈值
        int newCap, newThr = 0;
        //===================给newCap和newThr赋值start=============================
        // oldCap大于零,说明之前已经初始化过了(hashmap中的散列表不是null),要进行正常的扩容操作
        if (oldCap > 0) {
            // 扩容之前的table数组大小已经最大值了,以后不再扩容了
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            // (1)左移一位进行翻倍扩容(假如旧的oldCap为8, < DEFAULT_INITIAL_CAPACITY,那么此条件不成立newThr将不会赋值),并且赋值给newCap,newCap小于数组最大值限制且扩容之前的阈值>=16
            //这种情况下,则下一次扩容的阈值等于当前阈值翻倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                    oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        // (2)
        // ***oldCap == 0(说明hashmap中的散列表是null)且oldThr > 0 ;下面几种情况都会出现oldCap == 0,oldThr > 0
        // 1.public HashMap(int initialCapacity);
        // 2.public HashMap(Map<? extends K, ? extends V> m);并且这个map有数据
        // 3.public HashMap(int initialCapacity, float loadFactor);
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;//newCap是2的次方大小

        // ***oldCap == 0, oldThr == 0的情况,通过newCap和loadFactor计算出一个newThr
        // public HashMap();
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;//16
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//12
        }

        // ***对应上面(1)不成立或者(2)成立的情况,
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                    (int)ft : Integer.MAX_VALUE);
        }

        //===================给newCap和newThr赋值end=============================
        threshold = newThr;//下次按照新的扩容阈值执行
        @SuppressWarnings({"rawtypes","unchecked"})//创建更长
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        //说明hashmap本次扩容之前,table不为null
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                //当前node节点
                Node<K,V> e;
                // 当前桶位中有数据,但具体是单个数据还是链表还是红黑树并不知道
                if ((e = oldTab[j]) != null) {
                    // 将对应的桶位指向null,方便jvm回收
                    oldTab[j] = null;

                    // 1.当前桶位只有一个元素,没有发生过碰撞,直接计算当前元素应存放的位置
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;

                    // 2.当前节点已经树化了
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);

                    // 3.***桶位已经形成链表(看上面案例图)
                    else { // preserve order
                        // 低位链表:存放在扩容之后的数组下标的位置,与当前数组下标位置一致的元素
                        // 高位链表:存放在扩容之后的数组下标的位置为当前数组下标位置+ 扩容之前数组长度的元素
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            // 比如e.hash只能为两种可能  1 1111 或者 0 1111 , oldCap 为 10000
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);

                        // 如果低位链表有数据
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        // 如果高位链表有数据
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

2.5 get方法分析

public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;//存的时候hash了,取的时候也要hash
    }

   final Node<K,V> getNode(int hash, Object key) {
        // tab:引用当前hashmap的table
        // first:桶位中的头元素
        // n:table数组的长度
        // e:是临时Node元素
        // k:是key的临时变量
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
       
       // 1.如果哈希表为空,或key对应的桶为空,返回null
       //判断水池中有没有水,有的话进入if
        if ((tab = table) != null && (n = tab.length) > 0 &&
                (first = tab[(n - 1) & hash]) != null) {
            
            // 2.这个桶位的头元素就是想要找的
            if (first.hash == hash && // always check first node
                    ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            
            // 说明当前桶位不止一个元素,可能是链表,也可能是红黑树
            if ((e = first.next) != null) {
                // 3.树化了
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                
                // 4.桶位形成了链表
                do {
                    if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }

2.6 remove方法分析

  public V remove(Object key) {
        Node<K,V> e;
        return (e = removeNode(hash(key), key, null, false, true)) == null ?
                null : e.value;//e就是方法返回的node
    }    
    //matchValue为true,说明不仅key匹配上,value也匹配上才删除
    final Node<K,V> removeNode(int hash, Object key, Object value,
                               boolean matchValue, boolean movable) {
        // tab:引用当前hashmap的table
        // p:当前的node元素
        // n:当前的散列表数组长度
        // index:表示寻址结果
        Node<K,V>[] tab; Node<K,V> p; int n, index;

        // 1.如果数组table为空或key映射到的桶为空,返回null。
        if ((tab = table) != null && (n = tab.length) > 0 &&
                (p = tab[index = (n - 1) & hash]) != null) {
            //说明路由的桶位是有数据的,需要进行查找操作,并且删除

            // node:查找到的结果
            // e:当前Node的下一个元素
            Node<K,V> node = null, e; K k; V v;

            // 2.桶位的头元素就是我们要找的
            if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                node = p;

            else if ((e = p.next) != null) {//当前桶位是链表或红黑树
                // 3.当前桶位是否树化了
                if (p instanceof TreeNode)
                    node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
                // 4.当前桶位是链表
                else {
                    do {
                        if (e.hash == hash &&
                                ((k = e.key) == key ||
                                        (key != null && key.equals(k)))) {
                            node = e;
                            break;
                        }
                        p = e;
                    } while ((e = e.next) != null);
                }
            }

            // 如果node不为null,说明按照key查找到想要删除的数据了
            //并且传入的value是否等于要查找的value,如果一致则删除
            if (node != null && (!matchValue || (v = node.value) == value ||
                    (value != null && value.equals(v)))) {
                // 1.node是树节点,删除节点
                if (node instanceof TreeNode)
                    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);//树的删除逻辑
                // 2.桶位元素即为查找结果,则将该元素的下一个元素放到桶位中
                else if (node == p)
                    tab[index] = node.next;
                // 不是第一个元素
                else
                    //3.将当前元素p的下一个元素设置成要删除元素的下一个元素
                    p.next = node.next;//p在node前面
                ++modCount;
                --size;
                afterNodeRemoval(node);
                return node;//返回删除结果
            }
        }
        return null;
    }

2.7 replace方法分析

@Override
    public boolean replace(K key, V oldValue, V newValue) {
        Node<K,V> e; V v;
        if ((e = getNode(hash(key), key)) != null &&
                ((v = e.value) == oldValue || (v != null && v.equals(oldValue)))) {
            e.value = newValue;
            afterNodeAccess(e);
            return true;
        }
        return false;
    }

    @Override
    public V replace(K key, V value) {
        Node<K,V> e;
        if ((e = getNode(hash(key), key)) != null) {
            V oldValue = e.value;
            e.value = value;
            afterNodeAccess(e);
            return oldValue;//返回老值
        }
        return null;
    }

2.8 其它常用方法

isEmpty();

putMapEntries();

putAll();

clear();

containsValue( Object value);

3.常见问题

3.1HashMap如何减少有效碰撞

1、扰动函数算法,促使元素位置分布均匀,减少碰撞几率;

原理是:两个不相等的对象,只要返回不相同的hashcode。这样就可以避免碰撞,减少碰撞几率;而HashMap是采用的是:拉链法来完成。

拉链法解决冲突的做法是:将所有关键字为同义词的结点链接在同一个单链表中。若选定的散列表长度为m,则可将散列表定义为一个由m个头指针组成的指针数组t[0..m-1]。凡是散列地址为i的结点,均插入到以t为头指针的单链表中。t中各分量的初值均应为空指针。在拉链法中,装填因子α可以大于1,但一般均取α≤1。

何谓拉链法:HashCode是使用Key通过Hash函数计算出来的,由于不同的Key,通过此Hash函数可能会算的同样的HashCode,所以此时用了拉链法解决冲突,把HashCode相同的Value连成链表. 但是get的时候根据Key又去桶里找,如果是链表说明是冲突的,此时还需要检测Key是否相同

2、使用final对象,并采用合适的equals方法和hashCode方法;

怎么让产生不同的对象返回的hashcode尽量的不一样呢?尽量去覆盖Object对象的equals和hashcode方法。而final修饰的对象使得能够缓存不同键的hashcode,这将提供获取对象的速度。而使用String,Integer这些类就特别适合做key。因为这些类都是final,也重写和覆盖了equals方法和hashcode方法。final是必要的,因为为了要计算hashcode。就要防止键值改变。如果键值在放入时和获取时返回的是不同的hashcode。就不能够在hashmap中找到对象的元素。

3、hash原理分析如下

 /**
     * Computes key.hashCode() and spreads (XORs) higher bits of hash
     * to lower.  Because the table uses power-of-two masking, sets of
     * hashes that vary only in bits above the current mask will
     * always collide. (Among known examples are sets of Float keys
     * holding consecutive whole numbers in small tables.)  So we
     * apply a transform that spreads the impact of higher bits
     * downward. There is a tradeoff between speed, utility, and
     * quality of bit-spreading. Because many common sets of hashes
     * are already reasonably distributed (so don't benefit from
     * spreading), and because we use trees to handle large sets of
     * collisions in bins, we just XOR some shifted bits in the
     * cheapest possible way to reduce systematic lossage, as well as
     * to incorporate impact of the highest bits that would otherwise
     * never be used in index calculations because of table bounds.
     */
    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

1、先将key的hashcode获取。h = key.hashCode()

2、然后将hashcode的高位数(h >>> 16是用来**取出h的高16**)移动低位。

hash函数是先拿到通过key 的hashcode,是32位的int值,然后让hashcode的高16位和低16位进行异或操作。

  1. 一定要尽可能降低hash碰撞,越分散越好;

  2. 算法一定要尽可能高效,因为这是高频操作, 因此采用位运算;

3.2为什么采用hashcode的高16位和低16位异或能降低hash碰撞?hash函数能不能直接用key的hashcode?

HashMap是采用数组+链表+红黑树。进行hash的作用只不过是告诉每次put元素的时候,存放到那个数组中。因为key.hashCode()函数调用的是key键值类型自带的哈希函数,返回int型散列值。int值范围为-2147483648~2147483647,前后加起来大概40亿的映射空间。只要哈希函数映射得比较均匀松散,一般应用是很难出现碰撞的。但问题是一个40亿长度的数组,内存是放不下的。你想,如果HashMap数组的初始大小才16,用之前需要对数组的长度取模运算,得到的余数才能用来访问数组下标。

源码中模运算就是把散列值和数组长度-1做一个"与"操作,位运算比%运算要快。

最后我们来看一下Peter Lawley的一篇专栏文章《An introduction to optimising a hashing strategy》里的的一个实验:他随机选取了352个字符串,在他们散列值完全没有冲突的前提下,对它们做低位掩码,取数组下标。

结果显示,当HashMap数组长度为512的时候(2的9次方),也就是用掩码取低9位的时候,在没有扰动函数的情况下,发生了103次碰撞,接近30%。而在使用了扰动函数之后只有92次碰撞。碰撞减少了将近10%。看来扰动函数确实还是有功效的。

另外Java1.8相比1.7做了调整,1.7做了四次移位和四次异或,但明显Java 8觉得扰动做一次就够了,做4次的话,多了可能边际效用也不大,所谓为了效率考虑就改成一次了。

jdk1.7的hash代码:

static int hash(int h) {
    h ^= (h >>> 20) ^ (h >>> 12);
    return h ^ (h >>> 7) ^ (h >>> 4);
}

jdk1.8的hash代码:

static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

3.3HashMap为什么使用数组?

数组在有下标的情况下时间复杂度是O(1)。
hashcode % array. length = Index。

通过对象的hashcode取余数组的长度得到对象在数组中下标的位置,使查找某个对象所在位置的时间复杂度降低为O(1)。

在HashMap中默认的数组长度为16,如果要指定,
那么传入的参数须为2的n次方的值,
如果传入的初始长度不为2的n次方的值,
也会通过位移改变为大于传入值且是最小的2的n次方的值。
/**

 * The default initial capacity - MUST be a power of two.
默认的初始容量为16---为2的4次方

 */

static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

变更传入值的大小,如果不为2的n次幂,则变更为2的n次幂。

如果传入的容量不为2的n次幂,则变更为大于传入数值且为2的n次幂的最小值。

例如:传入11,则大于11且大于2的n次幂的最小值为16.则把初始容量变更为16.

2的3次幂为8,2的4次幂为16. 2的5次幂为32.

private static int roundUpToPowerOf2(int number) {

    // assert number >= 0 : "number must be non-negative";

    return number >= MAXIMUM_CAPACITY

            ? MAXIMUM_CAPACITY

            : (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1;

}

数组—>默认16长度的数组,最大长度2的30次幂,

数组—>当有下标读取时候,时间复杂度是O(1)。增删的时候由于要移动数组中数组的位置,因此时间复杂度为O(n)。

3.4hash碰撞(冲突),如何解决?

Object1.hashcode % array.length = Object2.hashcode % array. length

当出现Hash冲突的时候,把数组中的位置变为线性链表。

线性链表的特点:

  1. 查找慢,需要一个节点一个节点的访问,时间复杂度是O(n)。

  2. 增删快,时间复杂度是O(1)。

在JDK1.7中的线性链表插入方式为头部插入法。
在JDK1.8中的线性链表插入方式为尾部插入法。

链表—>头部插入法(JDK1.7),尾部插入法(JDK1.8),equles

  • 由于线性链表的查找速度为0(n),因此当HashMap中数据越来越多的时候,Hash冲突的概率也越来越大,因此线性链表的长度也越来越长,性能也越来越低。为了解决这个问题,在JDK1.8之后,当线性链表的长度超过8之后,把线性链表转为红黑树。 红黑树的特性:

  • 红黑树—>JDK1.8之后-链表长度超过8之后转为红黑树,左旋,右旋;

  • 红黑树是接近于平衡的搜索二叉树。

  • 红黑树确保最长长度不是最低长度的两倍。

  • 性能均衡,查找,插入,删除等都是0(logn)的时间复杂度。

五个特性:
1.节点要么是红色、要么是黑色。
2.根节点必须是黑色。
3.每个叶子结点必须是黑色。
4.如果一个节点是红色,那么他的两个儿子必须是黑色。
5.对于任意节点而言,其到叶子节点树尾端指针的每条路径都包含相同数量的黑节点。

3.5JDK1.8-之后长度超过8转变为红黑树,长度8的由来?

为什么这个长度是8.

因为统计学角度,一般很少hash的碰撞值会达到7.

泊松分布----> 根据泊松分布的概率统计学角度上。
在负载因子在0.75的时候,如果链表长度大于8之后的分布概率上来说,概率可以忽略不计了。
也就是说在大多数情况下是不会到达8转红黑树的。一亿分之六的概率。
/**

 * The load factor used when none specified in constructor.
默认的负载因素为不太精确的 0.75f构造

 */

static final float DEFAULT_LOAD_FACTOR = 0.75f;

链表转红黑树是链表长度达到阈值,这个阈值是多少?

阈值是8,红黑树转链表阈值为6

又为什么红黑树转链表的阈值是6,不是8了呢?

因为经过计算,在hash函数设计合理的情况下,发生hash碰撞8次的几率为百万分之6,概率说话。。因为8够用了,至于为什么转回来是6,因为如果hash碰撞次数在8附近徘徊,会一直发生链表和红黑树的转化,为了预防这种情况的发生。

3.6为什么HashMap允许的最大容量为2的30次方?

/**
 * The maximum capacity, used if a higher value is implicitly specified
 * by either of the constructors with arguments.
 * MUST be a power of two <= 1<<30.
HashMap允许的最大容量。---必须为2的幂且小于2的30次方,传入过大的值,将被替换
 */
static final int MAXIMUM_CAPACITY = 1 << 30;

首先:JAVA中规定了该 static final 类型的静态变量为int 类型,
至于为什么不是byte、long等类型,
原因是由于考虑到HashMap的性能问题而做的这种处理。

由于int类型的长度为4字节,也就是32个二进制位。按理说可以向左移动31位,
即2的31次幂。但是由于二进制数字中最高的一位,也就是最左边的一位是符号位,
用来表示正负之分(0为正,1为负),所以只能向左移动30位,而不能移动到最高位。

3.7HashMap扩容机制-为什么负载因子默认为0.75f?

负载因子0.75 如果容量大大0.75则扩容为原来的两倍。扩容因此 0.75
==空间利用率和时间效率在0.75的时候达到了平衡。==
在统计学上0.693是最佳的选择。然后可能更想着有空间利用率,而且在。Net语言中 hashmap的负载因子是0.7。

3.8为什么Hashmap长度保证2的n次幂

Hashmap默认初始长度16,后续每次加入的值都是2的指数次幂的值。

如果传入的值不是2的指数次幂,则变成大于这个值的最接近的2的指数次幂的值。

变更传入值的大小,如果不为2的n次幂,则变更为2的n次幂。 如果传入的容量不为2的n次幂,则变更为大于传入数值且为2的n次幂的最小值。

例如:传入11,则大于11且大于2的n次幂的最小值为16.则把初始容量变更为16.

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值