JAVA集合

常用集合:

Collection 接口的接口 对象的集合(单列集合)
├——-List 接口:元素按进入先后有序保存,可重复
│—————-├ LinkedList 接口实现类, 链表, 插入删除, 没有同步, 线程不安全
│—————-├ ArrayList 接口实现类, 数组, 随机访问, 没有同步, 线程不安全
│—————-└ Vector 接口实现类 数组, 同步, 线程安全
│ ———————-└ Stack 是Vector类的实现类
└——-Set 接口: 仅接收一次,不可重复,并做内部排序
├—————-└HashSet 使用hash表(数组)存储元素
│————————└ LinkedHashSet 链表维护元素的插入次序
└ —————-TreeSet 底层实现为二叉树,元素排好序

Map 接口 键值对的集合 (双列集合)
├———Hashtable 接口实现类, 同步, 线程安全
├———HashMap 接口实现类 ,没有同步, 线程不安全-
│—————–├ LinkedHashMap 双向链表和哈希表实现
│—————–└ WeakHashMap
├ ——–TreeMap 红黑树对所有的key进行排序
└———IdentifyHashMap

1.HashMap

1.1 数据结构

        JDK1.7:数据 + 链表

        JDK1.8:数组 + 链表 + 红黑树

1.2 源码解析

        1.2.1 成员属性

                1.初始长度 1 << 4 =16(避免初始扩容频繁)

                2.最大长度 1 << 30 = 2 ^ 30     (Q: 为什么不是2^32或者2^31 A:1.第一位符号位,2.为了避免整形溢出 )

                        HashMap的最大容量为什么是2的30次方(1左移30)?_与望-CSDN博客_1左移30

                3.扩容因子(数组最大容量 = 最大长度 * 扩容因子)

                4.链表转树长度 8(Q: 树化因子为什么是8  A:根据泊松分布8个哈希碰撞是千万分之一 )

                         面试官问:为什么HashMap底层树化的元素是 8 - 知乎

                5.树转链表长度 6(Q: 树转链表为什么是6  A: 避免频繁来回转化)

                6.最小树化长度 64(小于64会扩容不会树化)

    /**
     * The default initial capacity - MUST be a power of two.
     */
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    
    /**
     * The maximum capacity, used if a higher value is implicitly specified
     * by either of the constructors with arguments.
     * MUST be a power of two <= 1<<30.
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     * The load factor used when none specified in constructor.
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     * The bin count threshold for using a tree rather than list for a
     * bin.  Bins are converted to trees when adding an element to a
     * bin with at least this many nodes. The value must be greater
     * than 2 and should be at least 8 to mesh with assumptions in
     * tree removal about conversion back to plain bins upon
     * shrinkage.
     */
    static final int TREEIFY_THRESHOLD = 8;

    /**
     * The bin count threshold for untreeifying a (split) bin during a
     * resize operation. Should be less than TREEIFY_THRESHOLD, and at
     * most 6 to mesh with shrinkage detection under removal.
     */
    static final int UNTREEIFY_THRESHOLD = 6;

    /**
     * The smallest table capacity for which bins may be treeified.
     * (Otherwise the table is resized if too many nodes in a bin.)
     * Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts
     * between resizing and treeification thresholds.
     */
    static final int MIN_TREEIFY_CAPACITY = 64;

        1.2.2 resize() 扩容过程             

final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

        

                1.判断长度

                2.判断是否需要树化

                3.两倍扩容

                4.计算保留还是迁移

                5.头插法迁移

                Q:为什么线程不安全 

                A:在JDK1.7中,由于扩容时头插法,当并发执行扩容操作时会造成环形链和数据丢失的情况,在JDK1.8中,在并发执行put操作时会发生数据覆盖的情况。                

                JDK1.7和JDK1.8中HashMap为什么是线程不安全的?_张先森的博客-CSDN博客_hashmap为什么线程不安全

  1.2.3 put()过程       

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {
            Node<K,V> e; K k;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

        1.判断长度是否需要扩容

        2.计算hash

        3.判断数组元素是否为空,为空则插入,不为空则遍历链表,不大于8则插入,大于8则转化为红黑树插入或覆盖

        3.插入值后再判断是否需要扩容
       

        note:

                (n - 1) & hash = hash % n (前提是n是2的n次幂)

                1.保证容量都是2的幂次时 2.位运算比取余操作快(大概十倍)

2.ConcurrentHashMap

        2.1原理

                JDK1.7 分段锁Segment,Segment继承ReentrantLock

                JDK1.8 synchronized + CAS,synchronized 只锁定当前链表或红⿊⼆叉树的⾸节点,这样只要 hash 不冲突,就不会产⽣并发,效率⼜提升 N 倍

                都用了volatile修饰成员变量

        2.2 源码解析

        2.2.1 put()过程

    /*
         * 当添加一对键值对的时候,首先会去判断保存这些键值对的数组是不是初始化了,
         * 如果没有的话就初始化数组
         *  然后通过计算hash值来确定放在数组的哪个位置
         * 如果这个位置为空则直接添加,如果不为空的话,则取出这个节点来
         * 如果取出来的节点的hash值是MOVED(-1)的话,则表示当前正在对这个数组进行扩容,复制到新的数组,则当前线程也去帮助复制
         * 最后一种情况就是,如果这个节点,不为空,也不在扩容,则通过synchronized来加锁,进行添加操作
         *    判断当前取出的节点位置存放的是链表还是树
         *    如果是链表的话,则遍历整个链表,直到取出来的节点的key来个要放的key进行比较,如果key相等,并且key的hash值也相等的话,则说明是同一个key,则覆盖掉value,否则的话则添加到链表的末尾
         *    如果是树的话,则调用putTreeVal方法把这个元素添加到树中去
         *  最后在添加完成之后,会判断在该节点处共有多少个节点(注意是添加前的个数),如果达到8个以上了的话,
         *  则调用treeifyBin方法来尝试将处的链表转为树,或者扩容数组
         */
        final V putVal(K key, V value, boolean onlyIfAbsent) {
            if (key == null || value == null) throw new NullPointerException();//K,V都不能为空,否则的话跑出异常
            int hash = spread(key.hashCode());    //取得key的hash值
            int binCount = 0;    //用来计算在这个节点总共有多少个元素,用来控制扩容或者转移为树
            for (Node<K,V>[] tab = table;;) {    // table变量会在initTable()里面进行赋值
                Node<K,V> f; int n, i, fh;
                if (tab == null || (n = tab.length) == 0)    
                    tab = initTable();    //第一次put的时候table没有初始化,则初始化table,在initTable()里面对table变量赋值
                else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {    //通过哈希计算出一个表中的位置因为n是数组的长度,所以(n-1)&hash肯定不会出现数组越界,在这一步算出具体的索引位置i变量的值
                    if (casTabAt(tab, i, null,        
                                 new Node<K,V>(hash, key, value, null)))        //cas的方式尝试添加Node节点,注意这个时候是没有加锁的,这里的第一个null表示只有当前的i位置的变量是null的时候,才会插入Node节点,第二个null表示Node节点的是下一个节点为空
                        break;                   
                }
                /*
                 * 如果检测到某个节点的hash值是MOVED,则表示正在进行数组扩张的数据复制阶段,
                 * 则当前线程也会参与去复制,通过允许多线程复制的功能,一次来减少数组的复制所带来的性能损失
                 */
                else if ((fh = f.hash) == MOVED)    
                    tab = helpTransfer(tab, f);
                else {
                    // 注意执行到这里的时候,f局部变量、n和i和fh局部变量都已经有值了,因为执行到这里说明上面的几个判断都已经执行过了
                    /*
                     * 如果在这个位置有元素的话,就采用synchronized的方式加锁,
                     *     如果是链表的话(hash大于0),就对这个链表的所有元素进行遍历,
                     *         如果找到了key和key的hash值都一样的节点,则把它的值覆盖掉
                     *         如果没找到的话,则添加在链表的最后面
                     *  否则,是树的话,则调用putTreeVal方法添加到树中去
                     *  
                     *  在添加完之后,会对该节点上关联的的数目进行判断,
                     *  如果在8个以上的话,则会调用treeifyBin方法,来尝试转化为树,或者是扩容
                     */
                    V oldVal = null;
                    synchronized (f) {
                        if (tabAt(tab, i) == f) {        //再次取出要存储的位置的元素,跟前面取出来的比较
                            if (fh >= 0) {                //取出来的元素的hash值大于0,当转换为树之后,hash值为-2,就是变量TREEBIN的值
                                binCount = 1;            
                                for (Node<K,V> e = f;; ++binCount) {    //遍历这个链表
                                    K ek;
                                    if (e.hash == hash &&        //要存的元素的hash,key跟要存储的位置的节点的相同的时候,替换掉该节点的value即可
                                        ((ek = e.key) == key ||
                                         (ek != null && key.equals(ek)))) {
                                        oldVal = e.val;
                                        if (!onlyIfAbsent)        //当使用putIfAbsent的时候,只有在这个key没有设置值得时候才设置
                                            e.val = value;
                                        break;
                                    }
                                    Node<K,V> pred = e;
                                    if ((e = e.next) == null) {    //如果不是同样的hash,同样的key的时候,则判断该节点的下一个节点是否为空,
                                        pred.next = new Node<K,V>(hash, key,        //为空的话把这个要加入的节点设置为当前节点的下一个节点
                                                                  value, null);
                                        break;
                                    }
                                }
                            }
                            else if (f instanceof TreeBin) {    //表示已经转化成红黑树类型了
                                Node<K,V> p;
                                binCount = 2;
                                if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,    //调用putTreeVal方法,将该元素添加到树中去
                                                               value)) != null) {
                                    oldVal = p.val;
                                    if (!onlyIfAbsent)
                                        p.val = value;
                                }
                            }
                        }
                    }
                    if (binCount != 0) {
                        if (binCount >= TREEIFY_THRESHOLD)    //当在同一个节点的数目达到8个的时候,则扩张数组或将给节点的数据转为tree
                            treeifyBin(tab, i);    
                        if (oldVal != null)
                            return oldVal;
                        break;
                    }
                }
            }
            addCount(1L, binCount);    //计数
            return null;
        }

        2.2.2 transfer() 扩容

                else if ((fh = f.hash) == MOVED)

                        tab = helpTransfer(tab, f);

                如果数组正在扩张,则当前线程也去帮助扩容

final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
        Node<K,V>[] nextTab; int sc;
        if (tab != null && (f instanceof ForwardingNode) &&
            (nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
            int rs = resizeStamp(tab.length);
            while (nextTab == nextTable && table == tab &&
                   (sc = sizeCtl) < 0) {
                if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                    sc == rs + MAX_RESIZERS || transferIndex <= 0)
                    break;
                if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
                    transfer(tab, nextTab);
                    break;
                }
            }
            return nextTab;
        }
        return table;
    }

        同一个节点的个数超过8个的时候,会调用treeifyBin()方法来看看是扩容还是转化为一棵树

    /**
         * Replaces all linked nodes in bin at given index unless table is
         * too small, in which case resizes instead.
         * 当数组长度小于64的时候,扩张数组长度一倍,否则的话把链表转为树
         */
        private final void treeifyBin(Node<K,V>[] tab, int index) {
            Node<K,V> b; int n, sc;
            if (tab != null) {
                if ((n = tab.length) < MIN_TREEIFY_CAPACITY)    //MIN_TREEIFY_CAPACITY 64
                    tryPresize(n << 1);        // 数组扩容
                else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
                    synchronized (b) {    //使用synchronized同步器,将该节点出的链表转为树
                        if (tabAt(tab, index) == b) {
                            TreeNode<K,V> hd = null, tl = null;    //hd:树的头(head)
                            for (Node<K,V> e = b; e != null; e = e.next) {
                                TreeNode<K,V> p =
                                    new TreeNode<K,V>(e.hash, e.key, e.val,
                                                      null, null);
                                if ((p.prev = tl) == null)        //把Node组成的链表,转化为TreeNode的链表,头结点任然放在相同的位置
                                    hd = p;    //设置head
                                else
                                    tl.next = p;
                                tl = p;
                            }
                            setTabAt(tab, index, new TreeBin<K,V>(hd));//把TreeNode的链表放入容器TreeBin中
                        }
                    }
                }
            }
        }

        当需要扩容的时候,调用的时候tryPresize()方法

        /**
         * 扩容表为指可以容纳指定个数的大小(总是2的N次方)
         * 假设原来的数组长度为16,则在调用tryPresize的时候,size参数的值为16<<1(32),此时sizeCtl的值为12
         */
        private final void tryPresize(int size) {
                /*
                 * MAXIMUM_CAPACITY = 1 << 30 = 1073741824
                 * 如果给定的大小大于等于数组容量的一半,则直接使用最大容量,
                 * 否则使用tableSizeFor算出来,tableSizeFor()返回值是入参的二倍
                 */
            int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY :
                tableSizeFor(size + (size >>> 1) + 1);
            int sc;
            while ((sc = sizeCtl) >= 0) {   // while循环来进行扩容
                Node<K,V>[] tab = table; int n;
                /*
                 * 如果数组table还没有被初始化,则初始化一个大小为sizeCtrl和刚刚算出来的c中较大的一个大小的数组
                 * 初始化的时候,设置sizeCtrl为-1,初始化完成之后把sizeCtrl设置为数组长度的3/4
                 * 为什么要在扩张的地方来初始化数组呢?这是因为调用putAll方法直接put一个map的话,在putALl方法中没有调用initTable方法去初始化table,而是直接调用了tryPresize方法,所以这里需要做一个是不是需要初始化table的判断
                 */
                if (tab == null || (n = tab.length) == 0) {
                    n = (sc > c) ? sc : c;   
                    if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {    //初始化tab的时候,把sizeCtl设为-1
                        try {
                            if (table == tab) {
                                @SuppressWarnings("unchecked")
                                Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];  // 扩容一个长度是n的新数组
                                table = nt;  // 把新数组赋值给table变量
                                sc = n - (n >>> 2);
                            }
                        } finally {
                            sizeCtl = sc;
                        }
                    }
                }
                else if (c <= sc || n >= MAXIMUM_CAPACITY) {
                        break;    
                }
                else if (tab == table) {
                    int rs = resizeStamp(n);
                    if (sc < 0) {
                        Node<K,V>[] nt;
                        if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                            sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                            transferIndex <= 0)
                            break;
                        if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
                            // 开始转移数据
                            transfer(tab, nt);
                    }
                    else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                                 (rs << RESIZE_STAMP_SHIFT) + 2)) {
                            // 开始转移数据
                            transfer(tab, null);
                    }
                }
            }
        }

        数组扩容的主要方法就是transfer()方法

    /**
         * Moves and/or copies the nodes in each bin to new table. See
         * above for explanation.
         * 把数组中的节点复制到新的数组的相同位置,或者移动到扩张部分的相同位置
         * 在这里首先会计算一个步长,表示一个线程处理的数组长度,用来控制对CPU的使用,
         * 每个CPU最少处理16个长度的数组元素,也就是说,如果一个数组的长度只有16,那只有一个线程会对其进行扩容的复制移动操作
         * 扩容的时候会一直遍历,知道复制完所有节点,没处理一个节点的时候会在链表的头部设置一个fwd节点,这样其他线程就会跳过他,
         * 复制后在新数组中的链表不是绝对的反序的
         */
        private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
            int n = tab.length, stride;
            if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)    //MIN_TRANSFER_STRIDE 用来控制不要占用太多CPU
                stride = MIN_TRANSFER_STRIDE; // subdivide range    //MIN_TRANSFER_STRIDE=16
            /*
             * 如果复制的目标nextTab为null的话,则初始化一个table两倍长的nextTab
             * 此时nextTable被设置值了(在初始情况下是为null的)
             * 因为如果有一个线程开始了表的扩张的时候,其他线程也会进来帮忙扩张,
             * 而只是第一个开始扩张的线程需要初始化下目标数组
             */
            if (nextTab == null) {            // initiating
                try {
                    @SuppressWarnings("unchecked")
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
                    nextTab = nt;
                } catch (Throwable ex) {      // try to cope with OOME
                    sizeCtl = Integer.MAX_VALUE;
                    return;
                }
                nextTable = nextTab;
                transferIndex = n;
            }
            int nextn = nextTab.length;
            /*
             * 创建一个fwd节点,这个是用来控制并发的,当一个节点为空或已经被转移之后,就设置为fwd节点
             * 这是一个空的标志节点
             */
            ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
            boolean advance = true;    //是否继续向前查找的标志位
            boolean finishing = false; // to ensure sweep(清扫) before committing nextTab,在完成之前重新在扫描一遍数组,看看有没完成的没
            for (int i = 0, bound = 0;;) {
                Node<K,V> f; int fh;
                while (advance) {
                    int nextIndex, nextBound;
                    if (--i >= bound || finishing) {
                        advance = false;
                    }
                    else if ((nextIndex = transferIndex) <= 0) {
                        i = -1;
                        advance = false;
                    }
                    else if (U.compareAndSwapInt
                             (this, TRANSFERINDEX, nextIndex,
                              nextBound = (nextIndex > stride ?
                                           nextIndex - stride : 0))) {
                        bound = nextBound;
                        i = nextIndex - 1;
                        advance = false;
                    }
                }
                if (i < 0 || i >= n || i + n >= nextn) {
                    int sc;
                    if (finishing) {        //已经完成转移
                        nextTable = null;
                        table = nextTab;
                        sizeCtl = (n << 1) - (n >>> 1);    //设置sizeCtl为扩容后的0.75
                        return;
                    }
                    if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
                        if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT) {
                                return;
                        }
                        finishing = advance = true;
                        i = n; // recheck before commit
                    }
                }
                else if ((f = tabAt(tab, i)) == null)            //数组中把null的元素设置为ForwardingNode节点(hash值为MOVED[-1])
                    advance = casTabAt(tab, i, null, fwd);
                else if ((fh = f.hash) == MOVED)
                    advance = true; // already processed
                else {
                    synchronized (f) {                //加锁操作
                        if (tabAt(tab, i) == f) {
                            Node<K,V> ln, hn;
                            if (fh >= 0) {        //该节点的hash值大于等于0,说明是一个Node节点
                                    /*
                                     * 因为n的值为数组的长度,且是power(2,x)的,所以,在&操作的结果只可能是0或者n
                                     * 根据这个规则
                                     *         0-->  放在新表的相同位置
                                     *         n-->  放在新表的(n+原来位置)
                                     */
                                int runBit = fh & n; 
                                Node<K,V> lastRun = f;
                                /*
                                 * lastRun 表示的是需要复制的最后一个节点
                                 * 每当新节点的hash&n -> b 发生变化的时候,就把runBit设置为这个结果b
                                 * 这样for循环之后,runBit的值就是最后不变的hash&n的值
                                 * 而lastRun的值就是最后一次导致hash&n 发生变化的节点(假设为p节点)
                                 * 为什么要这么做呢?因为p节点后面的节点的hash&n 值跟p节点是一样的,
                                 * 所以在复制到新的table的时候,它肯定还是跟p节点在同一个位置
                                 * 在复制完p节点之后,p节点的next节点还是指向它原来的节点,就不需要进行复制了,自己就被带过去了
                                 * 这也就导致了一个问题就是复制后的链表的顺序并不一定是原来的倒序
                                 */
                                for (Node<K,V> p = f.next; p != null; p = p.next) {
                                    int b = p.hash & n;    //n的值为扩张前的数组的长度
                                    if (b != runBit) {
                                        runBit = b;
                                        lastRun = p;
                                    }
                                }
                                if (runBit == 0) {
                                    ln = lastRun;
                                    hn = null;
                                }
                                else {
                                    hn = lastRun;
                                    ln = null;
                                }
                                /*
                                 * 构造两个链表,顺序大部分和原来是反的
                                 * 分别放到原来的位置和新增加的长度的相同位置(i/n+i)
                                 */
                                for (Node<K,V> p = f; p != lastRun; p = p.next) {
                                    int ph = p.hash; K pk = p.key; V pv = p.val;
                                    if ((ph & n) == 0)
                                            /*
                                             * 假设runBit的值为0,
                                             * 则第一次进入这个设置的时候相当于把旧的序列的最后一次发生hash变化的节点(该节点后面可能还有hash计算后同为0的节点)设置到旧的table的第一个hash计算后为0的节点下一个节点
                                             * 并且把自己返回,然后在下次进来的时候把它自己设置为后面节点的下一个节点
                                             */
                                        ln = new Node<K,V>(ph, pk, pv, ln);
                                    else
                                            /*
                                             * 假设runBit的值不为0,
                                             * 则第一次进入这个设置的时候相当于把旧的序列的最后一次发生hash变化的节点(该节点后面可能还有hash计算后同不为0的节点)设置到旧的table的第一个hash计算后不为0的节点下一个节点
                                             * 并且把自己返回,然后在下次进来的时候把它自己设置为后面节点的下一个节点
                                             */
                                        hn = new Node<K,V>(ph, pk, pv, hn);    
                                }
                                setTabAt(nextTab, i, ln);    
                                setTabAt(nextTab, i + n, hn);
                                setTabAt(tab, i, fwd);
                                advance = true;
                            }
                            else if (f instanceof TreeBin) {    //否则的话是一个树节点
                                TreeBin<K,V> t = (TreeBin<K,V>)f;
                                TreeNode<K,V> lo = null, loTail = null;
                                TreeNode<K,V> hi = null, hiTail = null;
                                int lc = 0, hc = 0;
                                for (Node<K,V> e = t.first; e != null; e = e.next) {
                                    int h = e.hash;
                                    TreeNode<K,V> p = new TreeNode<K,V>
                                        (h, e.key, e.val, null, null);
                                    if ((h & n) == 0) {
                                        if ((p.prev = loTail) == null)
                                            lo = p;
                                        else
                                            loTail.next = p;
                                        loTail = p;
                                        ++lc;
                                    }
                                    else {
                                        if ((p.prev = hiTail) == null)
                                            hi = p;
                                        else
                                            hiTail.next = p;
                                        hiTail = p;
                                        ++hc;
                                    }
                                }
                                /*
                                 * 在复制完树节点之后,判断该节点处构成的树还有几个节点,
                                 * 如果≤6个的话,就转回为一个链表
                                 */
                                ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :
                                    (hc != 0) ? new TreeBin<K,V>(lo) : t;
                                hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :
                                    (lc != 0) ? new TreeBin<K,V>(hi) : t;
                                setTabAt(nextTab, i, ln);
                                setTabAt(nextTab, i + n, hn);
                                setTabAt(tab, i, fwd);
                                advance = true;
                            }
                        }
                    }
                }
            }
        }

一文彻底搞懂1.8ConcurrentHashMap源码-IT乾坤技术博客

        2.2.3 size()方法

        JDK1.7 和 JDK1.8 对 size 的计算是不一样的。 1.7 中是先不加锁计算三次,如果三次结果不一样在加锁。

        JDK1.8 size 是通过对 baseCount 和 counterCell 进行 CAS 计算,最终通过 baseCount 和 遍历 CounterCell 数组得出 size。

        ConcurrentHashmap size 1.8方法实现_programmeryu的博客-CSDN博客_concurrenthashmap size

3.CopyOnWrite

        通俗易懂的讲,写入时复制技术就是不同进程在访问同一资源的时候,只有更新操作,才会去复制一份新的数据并更新替换,否则都是访问同一个资源

        1.优点

        对于一些读多写少的数据,写入时复制的做法就很不错,例如配置、黑名单、物流地址等变化非常少的数据,这是一种无锁的实现。可以帮我们实现程序更高的并发。

         CopyOnWriteArrayList 并发安全且性能比 Vector 好。Vector 是增删改查方法都加了synchronized 来保证同步,但是每个方法执行的时候都要去获得锁,性能就会大大下降,而 CopyOnWriteArrayList 只是在增删改上加锁,但是读不加锁,在读方面的性能就好于 Vector。

        2.缺点

        数据一致性问题。这种实现只是保证数据的最终一致性,在添加到拷贝数据而还没进行替换的时候,读到的仍然是旧数据。

                内存占用问题。如果对象比较大,频繁地进行替换会消耗内存,从而引发 Java 的 GC 问题,这个时候,我们应该考虑其他的容器,例如 ConcurrentHashMap。

        写入时复制(CopyOnWrite) - JMCui - 博客园

        

知识点引申:

        红黑树,synchronized,ReentrantLock,CAS

        感想:第一次写博客,写一个我认为最简单的内容,梳理下来发现知识点还是不少的,每一个点都搞清楚也不简单。在这过程中发现了以前没有发现的知识点,理解错的知识点,还有说不清楚的知识点。以前只是浮与表面地去看,但真正了解得全面和深刻还是要更多的时间和精力去仔细的学习。在看这些代码和原理的过程中也体会到了前人们的思想和高度,有豁然开朗和醍醐灌顶的感觉。这是一个开始,希望能一直坚持下去养成习惯。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值