jdk源码分析之 hashMap

底层数据结构:
HashMap 底层的数据结构主要是:数组 + 链表 + 红黑树,当链表的长度大于等于 8 时,链表会转化成红黑树,当红黑树的大小小于等于 6 时,红黑树会转化成链表,整体的数据结构如下图所示:
在这里插入图片描述

类注解信息
通过类注解信息我们可以知道:

  • 允许 null 值,不同于 HashTable ,是线程不安全的;
  • load factor(影响因子) 默认值是 0.75, 是均衡了时间和空间损耗算出来的值,较高的值会减少空间开销(扩容减少,数组大小增长速度变慢),但增加了查找成本(hash 冲突增加,链表长度变长),不扩容的条件:数组容量 > 需要的数组大小 /load factor;
  • 如果有很多数据需要储存到 HashMap 中,建议 HashMap 的容量一开始就设置成足够的大小,这样可以防止在其过程中不断的扩容,影响性能;
  • HashMap 是非线程安全的,我们可以自己在外部加锁,或者通过 Collections#synchronizedMap 来实现线程安全,Collections#synchronizedMap 的实现是在每个方法上加上了 synchronized 锁;
  • 在迭代过程中,如果 HashMap 的结构被修改,会快速失败。

HashMap重要的成员变量:

// 默认初始容量 16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; 
//  最大容量(integer的最大值)
 static final int MAXIMUM_CAPACITY = 1 << 30;

// 默认的加载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;

// 当桶上的链表长度大于等于8时,链表转化为红黑树。
 static final int TREEIFY_THRESHOLD = 8;

// 当桶上的红黑树大小小于等于6时,红黑树将转化为链表存储。
static final int UNTREEIFY_THRESHOLD = 6;

// 数组的长度大于64,链表成会真正的转转化为红黑树
static final int MIN_TREEIFY_CAPACITY = 64;

// hashMap 的实际大小。
transient int size;

// 记录迭代过程中 HashMap 结构是否发生变化,如果有变化,迭代时会 fail-fast
transient int modCount;

// 扩容的门槛,有两种情况
 // 如果初始化时,给定数组大小的话,通过 tableSizeFor 方法计算,数组大小永远接近于 2 的幂次方,比如你给定初始化大小 19,实际上初始化大小为 32,为 2 的 5 次方。
 // 如果是通过 resize 方法进行扩容,大小 = 数组容量 * 0.75
int threshold;

// 哈希桶数组(存放数据)
 transient Node<K,V>[] table;

// Node是HashMap的一个内部类,实现了Map.Entry接口,本质是就是一个映射(键值对)
static class Node<K,V> implements Map.Entry<K,V> 

// 红黑树节点
static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {

HashMap初始化
HashMap 初始化有四种方式:

  • 无参的初始方式。
// 其他属性都是默认取默认值
public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }
  • 传入initialCapacity参数的初始化方式。
public HashMap(int initialCapacity) {
       // 其中使用默认的加载因子
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }
  • 传入initialCapacity和loadFactor两个参数的初始化方式:
public HashMap(int initialCapacity, float loadFactor) { 
       // 对传入的initialCapcity 和loadFactor做合法校验
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        // 根据传入的initialCapacity计算出threshold值
        this.threshold = tableSizeFor(initialCapacity);
    }
  • 传入一个初始化数据的初始化:
 public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }

final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
        int s = m.size();
        if (s > 0) {
            if (table == null) { // pre-size
                float ft = ((float)s / loadFactor) + 1.0F;
                int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                         (int)ft : MAXIMUM_CAPACITY);
                if (t > threshold)
                    threshold = tableSizeFor(t);
            }
            else if (s > threshold)
                resize();
            for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                K key = e.getKey();
                V value = e.getValue();
                putVal(hash(key), key, value, false, evict);
            }
        }
    }

hashMap的hash(key)
hashMap的哈希算法大致分为以下三步骤:

  • 计算key的哈希值。
  • 高位运算
  • 取模运算
 static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

hashMap的新增方法put
从源码中可知新增方法大致如下:

  1. 先检查数组是否初始化,如果没有初始化则进行初始化。
  2. 通过key的哈希值查找是否有值,有则跳第六步骤,否则走第三步。
  3. 如果存在hash冲突,两种处理哈希冲突:链表或者红黑树。
  4. 如果是链表,则对链表进行递归循环,把新的元素添加到链表新增到链尾。
  5. 如果是红黑树,调用红黑树的新增方法添加元素。
  6. 根据2、3、4步骤将元素成功添加后,在根据onlyIfAbsent是否进行覆盖。
  7. 检查是否进行扩容,判断实际存在的键值对数量size是否超多了最大容量threshold,需要进行扩容则进行扩容,结束。

大致流程如下:
在这里插入图片描述
其添加源码如下:

// 入参 hash:通过 hash 算法计算出来的值。
// 入参 onlyIfAbsent:false 表示即使 key 已经存在了,仍然会用新值覆盖原来的值,默认为 false
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        // n 表示数组的长度,i 为数组索引下标,p 为 i 下标位置的 Node 值
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //  如果数组为空,使用 resize 方法初始化
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
         // 如果当前索引位置是空的,直接生成新的节点在当前索引位置上    
        if ((p = tab[i = (n - 1) & hash]) == null)
            // 新建一个节点
            tab[i] = newNode(hash, key, value, null);
             // 如果当前索引位置有值的处理方法,即我们常说的如何解决 hash 冲突
        else {
            // e 当前节点的临时变量
            Node<K,V> e; K k;
            // 如果 key 的 hash 和值都相等,直接把当前下标位置的 Node 值赋值给临时变量
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
                // 如果是红黑树则调用红黑树的新增方法
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
                // 如果是链表则递归遍历,把新的元素追加到链尾。
            else {
                 // 自旋
                 for (int binCount = 0; ; ++binCount) {
                  // e = p.next 表示从头开始,遍历链表
                  // p.next == null 表明 p 是链表的尾节点
                    if ((e = p.next) == null) {
                        // 把新节点放到链表的尾部 
                        p.next = newNode(hash, key, value, null);
                        // 当链表的长度大于等于 8 时,链表转红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    // 链表遍历过程中,发现有元素和新增的元素相等,结束循环
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                        //更改循环的当前元素,使 p 在遍历过程中,一直往后移动。
                    p = e;
                }
            }
             // 说明新节点的新增位置已经找到了
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                  // 当 onlyIfAbsent 为 false 时,才会覆盖值 
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                      // 返回老值
                afterNodeAccess(e);
                return oldValue;
            }
        }
        // 记录 HashMap 的数据结构发生了变化
        ++modCount;
        //如果 HashMap 的实际大小大于扩容的阈值,开始扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

扩容机制
扩容(resize)就是重新计算容量,向HashMap对象里不停的添加元素,而HashMap对象内部的数组无法装载更多的元素时,对象就需要扩大数组的长度,以便能装入更多的元素。当然Java里的数组是无法自动扩容的,方法是使用一个新的数组代替已有的容量小的数组。

    final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            //  超过最大值就不再扩充了,就只好随你碰撞去吧
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
             // 没超过最大值,就扩充为原来的2倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        else if (oldThr > 0) // 初始容量置于阈值
            newCap = oldThr;
        else {               // 零初始阈值表示使用默认值
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            // 新的扩容阈值大于Integer则使用Integer最大值,反正使用ft
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        // 把新计算出的新阈值,赋值给以前的阈值
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
            // 同样的把新的数组赋给table,遍历上面代码存放的临时变量。
        table = newTab;
        if (oldTab != null) {
            // 把每个bucket都移动到新的buckets中
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                // 根据索引去数组中取值,如果不为空。
                if ((e = oldTab[j]) != null) {
                    // 不为空的情况下,将其值赋为给e,然后将其置为null
                    oldTab[j] = null;
                    // 如果没有下一个原数据移动到新的哈希桶
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // 链表优化重hash的代码块
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                             // 原索引
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                             // 原索引+oldCap
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                         // 原索引放到bucket里
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                       // 原索引+oldCap放到bucket里
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

HashMap何时考虑树化问题:
在源码中发现如果桶中的链表的大于8的时候会触发hashmap的树化操作。源码如下:

 // 当链表的长度大于等于 8 时,链表转红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
    treeifyBin(tab, hash);
    break;

而treeifyBin方法的源码如下:

final void treeifyBin(Node<K,V>[] tab, int hash) {
        int n, index; Node<K,V> e;
        // 如果hash桶的为空或者长度小于64时会优先考虑扩容问题。
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
            resize();
            // 否则则会考虑将hash痛中的链表转化为红黑树的
        else if ((e = tab[index = (n - 1) & hash]) != null) {
            TreeNode<K,V> hd = null, tl = null;
            do {
                TreeNode<K,V> p = replacementTreeNode(e, null);
                if (tl == null)
                    hd = p;
                else {
                    p.prev = tl;
                    tl.next = p;
                }
                tl = p;
            } while ((e = e.next) != null);
            if ((tab[index] = hd) != null)
                hd.treeify(tab);
        }
    }

链表的新增
链表的新增方法为递归循环,把元素新增到链尾和LiskedList实现一样,其树化源码如下:

 // 在新增的方法。树化的阈值即大于等于八的这个树化阈值
 if (binCount >= TREEIFY_THRESHOLD - 1)

final void treeifyBin(Node<K,V>[] tab, int hash) {
        int n, index; Node<K,V> e;
        // 如果数组为空,或者数组的实际长度小于最小树化的阈值64时进行扩容。
        if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
            resize();
         // 数组不为空且数组实际大小大于等于64,则将桶上的链表进行树化  
        else if ((e = tab[index = (n - 1) & hash]) != null) {
            TreeNode<K,V> hd = null, tl = null;
            // 遍历链表,直到最后一个将其转化为红黑树
            do {
                TreeNode<K,V> p = replacementTreeNode(e, null);
                if (tl == null)
                    hd = p;
                else {
                    p.prev = tl;
                    tl.next = p;
                }
                tl = p;
            } while ((e = e.next) != null);
            if ((tab[index] = hd) != null)
                hd.treeify(tab);
        }
    }

从源码可以看出来当链表的长度大小大于等于八,且数组的大小大于等于64的时候,才会进行吧链表才会进行树化,否则则进行扩容操作。
链表的时间复杂度为O(n)的时间复杂,而红黑树的时间复杂度为O(logn),在数据量不大的时候链表的查询速度会比红黑树的性能较高,而为什么是8和6则两个树做阈值,只要是因为泊松定理。

泊松定理:
1、泊松分布定义是若随bai机变量 X 只取du非负整数值,取k值的概率zhi为λke-l/k!,其中k可以等dao于0,1,2,则随机变量X 的分布称为泊松分布,记作P(λ);

2、泊松分布的参数λ是单位时间内随机事件的平均发生次数;

3、泊松分布正是由二项分布推导而来的
在这里插入图片描述

根据泊松分布模型,当链表的长度和查询的命中率如下:

* 0:    0.60653066
* 1:    0.30326533
* 2:    0.07581633
* 3:    0.01263606
* 4:    0.00157952
* 5:    0.00015795
* 6:    0.00001316
* 7:    0.00000094
* 8:    0.00000006

从泊松分布模型可以看出,当链表的长度是 8 的时候,出现的概率是 0.00000006,不到千万分之一,一般而言,链表的长度不可能到达 8 ,一旦到达 8 时,肯定是 hash 算法出了问题,所以在这种情况下,为了让 HashMap 仍然有较高的查询性能,所以让链表转化成红黑树,我们正常写代码,使用 HashMap 时,几乎不会碰到链表转化成红黑树的情况,毕竟概念只有千万分之一。

红黑树的新增方法putTreeVal
红黑树的新增的大体流程如:

  1. 首先先检查新增的节点是否已经存在在红黑树上,判断的手段一下两种方案。

    1.1 如果节点没有实现 Comparable 接口,使用 equals 进行判断;
    1.2 如果节点实现Comparable接口,则使用compareTo进行判断。

  2. 如果新增的节点已经存在,则直接返回,不存在则判断新增的节点到在红黑树的根节点的左边还是右边。

  3. 自旋递归 1 和 2 步,直到当前节点的左边或者右边的节点为空时,停止自旋,当前节点即为我们新增节点的父节点

  4. 新增节点放到当前节点的左边或右边为空的地方,并于当前节点建立父子节点关系;

  5. 进行着色和旋转,结束。

其源码如下:

final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab,
                                       int h, K k, V v) {
            Class<?> kc = null;
            boolean searched = false;
            //  找到根节点
            TreeNode<K,V> root = (parent != null) ? root() : this;
            // 自旋
            for (TreeNode<K,V> p = root;;) {
                int dir, ph; K pk;
                // p hash 值大于 h,说明 p 在 h 的右边
                if ((ph = p.hash) > h)
                    dir = -1;
                 // p hash 值小于 h,说明 p 在 h 的左边
                else if (ph < h)
                    dir = 1;
                // 要放进去key在当前树中已经存在了(equals来判断)   
                else if ((pk = p.key) == k || (k != null && k.equals(pk)))
                    return p;
                // 自己实现的Comparable的话,不能用hashcode比较了,需要用compareTo    
                else if ((kc == null &&
                 //得到key的Class类型,如果key没有实现Comparable就是null
                          (kc = comparableClassFor(k)) == null) ||
                           //当前节点pk和入参k不等
                         (dir = compareComparables(kc, k, pk)) == 0) {
                    if (!searched) {
                        TreeNode<K,V> q, ch;
                        searched = true;
                        if (((ch = p.left) != null &&
                             (q = ch.find(h, k, kc)) != null) ||
                            ((ch = p.right) != null &&
                             (q = ch.find(h, k, kc)) != null))
                            return q;
                    }
                    dir = tieBreakOrder(k, pk);
                }

                TreeNode<K,V> xp = p;
        //找到和当前hashcode值相近的节点(当前节点的左右子节点其中一个为空即可)
        if ((p = (dir <= 0) ? p.left : p.right) == null) {
            Node<K,V> xpn = xp.next;
            //生成新的节点
            TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn);
            //把新节点放在当前子节点为空的位置上
            if (dir <= 0)
                xp.left = x;
            else
                xp.right = x;
            //当前节点和新节点建立父子,前后关系
            xp.next = x;
            x.parent = x.prev = xp;
            if (xpn != null)
                ((TreeNode<K,V>)xpn).prev = x;
            //balanceInsertion 对红黑树进行着色或旋转,以达到更多的查找效率,着色或旋转的几种场景如下
            //着色:新节点总是为红色;如果新节点的父亲是黑色,则不需要重新着色;如果父亲是红色,那么必须通过重新着色或者旋转的方法,再次达到红黑树的5个约束条件
            //旋转: 父亲是红色,叔叔是黑色时,进行旋转
            //如果当前节点是父亲的右节点,则进行左旋
            //如果当前节点是父亲的左节点,则进行右旋
          
            //moveRootToFront 方法是把算出来的root放到根节点上
            moveRootToFront(tab, balanceInsertion(root, x));
            return null;
        }
        }

红黑树的特性

  1. 根节点root的颜色为黑色。
  2. 节点的颜色是红色或者黑色。
  3. 所有的叶子节点都是黑色节点。
  4. 从任意一个节点到其所有的叶子节点的简单路径都包含着相同数目的黑色节点。
  5. 从每个叶子节点到根节点的所有路径上的不能有两个连续的红色节点。

hashMap的查找
其源码如下:

 public V get(Object key) {
        Node<K,V> e;
        // 根据 hash 算法定位数组的索引位置,equals 判断当前节点是否是我们需要寻找的 key,是的话直接返回,不是的话往下。
        // 如查找完数组还没有找到,则返回null,不然则返回找到的内容。
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }

// 具体查找方案。
final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        // 数组不为空且数组长度大于0且数组中的不为空
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            // 如果第一个元素就是我们查找的则将第一个元素返回
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            if ((e = first.next) != null) {
           //  判断当前节点有无 next 节点,有的话判断是链表类型,还是红黑树类型。
           // 分别走链表和红黑树不同类型的查找方法。
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null); //  判断当前节点有无 next 节点
            }
        }
        return null;
    }

hashMap的删除方法:
其删除方法的源码如下:

  public V remove(Object key) {
        Node<K,V> e;
        return (e = removeNode(hash(key), key, null, false, true)) == null ?
            null : e.value;
    }

   final Node<K,V> removeNode(int hash, Object key, Object value,
                               boolean matchValue, boolean movable) {
        Node<K,V>[] tab; Node<K,V> p; int n, index;
        // 数组不为空且数组长度不为空,且数组的元素不为空的
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (p = tab[index = (n - 1) & hash]) != null) {
            Node<K,V> node = null, e; K k; V v;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                node = p;
            else if ((e = p.next) != null) {
                if (p instanceof TreeNode)
                    node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
                else {
                    do {
                        if (e.hash == hash &&
                            ((k = e.key) == key ||
                             (key != null && key.equals(k)))) {
                            node = e;
                            break;
                        }
                        p = e;
                    } while ((e = e.next) != null);
                }
            }
            if (node != null && (!matchValue || (v = node.value) == value ||
                                 (value != null && value.equals(v)))) {
                if (node instanceof TreeNode)
                    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
                else if (node == p)
                    tab[index] = node.next;
                else
                    p.next = node.next;
                ++modCount;
                --size;
                afterNodeRemoval(node);
                return node;
            }
        }
        return null;
    }

HashMayp与HashTable区别:
HashMap大致等于hashTable,它们都不能保证map的有序性,特别随着时间的推移不能保证是一个有序性。(注:TreeMap和LinkedHashMap可以保证map的有序性,若需要使用有序性map,则不要使用HashMap)
不同:
1 HashMap允许使key和value为空,而hashTable则不允许。
2 HashMap所有的操作都没有通过synchronized 修饰,多线程环境下是不能保证。若要HashMap线程安全可以使用 Collections.synchronizedMap(new HashMap<>());方式来实现线程安全,Collections.synchronizedMap 的实现是在每个方法上加上了 synchronized 锁;(ArryList也是同理)

HashMap性能优化
HashMap 的实例有两个参数会影响其性能:initial capacity 和 load factor capacity 是散列表中的存储桶数,initial capacity只是创建哈希表时的容量。 负载因子是衡量哈希表允许填充的程度的度量在容量自动增加之前获取。 当数哈希表中的条目超过了负载系数和当前容量,哈希表被刷新(即内部数据结构已重建),因此哈希表的大小大约是桶数。
如果知道我们使用的HashMap使用大概情况就传入大小,避免不必要的resize()。

迭代时不要移除数据

如果迭代时候remove,这时modCount就改变了导致前后不一致导致抛出异常,源码如下:

public final void forEach(Consumer<? super K> action) {
            Node<K, V>[] tab;
            if (action == null)
                throw new NullPointerException();
            if (size > 0 && (tab = table) != null) {
                int mc = modCount;
                for (int i = 0; i < tab.length; ++i) {
                    for (Node<K, V> e = tab[i]; e != null; e = e.next)
                        action.accept(e.key);
                }
                if (modCount != mc)
                    throw new ConcurrentModificationException();
            }
        }

HashMap 如何做序列化和反序列化?
通过源码可知HashMap中的table成员变量是被transient修饰的,其源码如下:

transient Node<K,V>[] table;

被tansient修饰的成员变量是不参与对象的序列化和反序列操作的。而HashMap是自己提供了两个私有方法来自己内部自己实现序列化和反序列化操作分别为:writeObject()和readObject().如果采用外部序列化法实现数组的序列化,会序列化整个map。HashMap 为了避免这些没有存储数据的内存空间被序列化,内部提供了两个私有方法 writeObject 以及 readObject 来自我完成序列化与反序列化,从而在序列化与反序列化数组时节省了空间和时间。因此使用 transient 修饰数组,是防止对象数组被其他外部方法序列化。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值