Hash碰撞,Unsafe类,ConcurrentHashMap 详细的源码解析,阿姆达尔定律,put 扩容 统计容器大小 get 保证线程安全,jdk1.7和1.8区别

Hash碰撞是什么?如何解决?

Hash如何存数据

hash表的本质其实就是数组,hash表中通常存放的是

  • 键值对Entry。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ioe1ULTX-1652884810330)(C:\Users\zhang\AppData\Roaming\Typora\typora-user-images\image-20220518152859225.png)]

这里的学号是个key,

  • 哈希表就是根据key值来通过 哈希函数计算 得到一个值,这个值就是下标值,
  • 用来确定这个Entry要存放在哈希表中哪个位置。

Hash碰撞

hash碰撞指的是,两个不同的值(比如张三、李四的学号)

  • 经过hash计算后,得到的hash值相同,后来的李四要放到原来的张三的位置,
  • 但是数组的位置已经被张三占了,导致冲突。

解决方法

hash碰撞的解决方式是 开放寻址法和拉链法。

开放寻址法指的是,当前数组位置1被占用了,就放到下一个位置2上去,

  • 如果2也被占用了,就继续往下找,直到找到空位置。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wCFacuD3-1652884810333)(C:\Users\zhang\AppData\Roaming\Typora\typora-user-images\image-20220518153250845.png)]

拉链法采用的是链表的方式,这个时候位置1就不单单存放的是Entry了,

  • 此时的Entry还要额外保存一个next指针,指向数组外的另一个位置,将李四安排在这里,
  • 张三那个Entry中的next指针就指向李四的这个位置,也就是保存的这个位置的内存地址。
    • 如果还有冲突,就把又冲突的那个Entry放到一个新位置上,然后李四的Entry指向它,
    • 这样就形成一个链表。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-smKcc7Y6-1652884810333)(C:\Users\zhang\AppData\Roaming\Typora\typora-user-images\image-20220518153541969.png)]

总结起来:开放寻址法 和 拉链法 都是想办法找到下一个空位置来 存发生冲突的值。

Unsafe类

1、Unsafe类介绍

Unsafe类确实有点不那么安全,它能实现一些不那么常见的功能。

Unsafe类使Java拥有了像

  • C语言的指针一样操作内存空间的能力,同时也带来了指针的问题。
  • 过度的使用Unsafe类会使得出错的几率变大,因此Java官方并不建议使用的,官方文档也几乎没有。
  • Oracle正在计划从Java 9中去掉Unsafe类,如果真是如此影响就太大了。

2、Unsafe的主要功能

我们先来看看Unsafe的初始化方法,这是一个单例模式:

private Unsafe() {}

private static final Unsafe theUnsafe = new Unsafe();

public static Unsafe getUnsafe() {
    //反射 获取到 class
    Class cc = sun.reflect.Reflection.getCallerClass(2);
    
    //如果 类加载器 不为null,扔异常。
    if (cc.getClassLoader() != null)
        throw new SecurityException("Unsafe");
    
    //否则 才能返回类
    return theUnsafe;
}

方法中,限制了它的 ClassLoader,如果这个方法的调用实例不是由Boot ClassLoader加载的,则会报错。

可以做一个实验,因为Java源码中的类,除扩展包都是由Boot ClassLoader加载的,

  • 如果我们new一个Object对象,查看Object对象的ClassLoader,它一定是null。
  • 所以,正常情况下开发者无法直接使用Unsafe ,如果需要使用它,则需要利用反射:
private static Unsafe getUnsafe(){
    try {
        //获取这个类的filed
        Field field = Unsafe.class.getDeclaredField("theUnsafe");
        //设置可以访问
        field.setAccessible(true);
        //字段 get null,在强转
        Unsafe unsafe = (Unsafe) field.get(null);
        return unsafe;
    } catch (Exception e) {
        e.printStackTrace();
    }
    return null;
}

从Unsafe的方法入手,发现Unsafe主要有以下几个方面的功能:

  • 操纵对象属性
  • 操纵数组元素
  • 线程挂起与恢复、CAS

我们一项项的分析它。

2.1 操纵对象属性

操纵对象属性,主要落在这个方法上:

public native long objectFieldOffset(Field f);

通过此方法,可以获取对象中某个属性的内存偏移地址,然后可根据偏移地址直接对属性进行修改,属性是否可读都无所谓,都能修改。

Field name = user.getClass().getDeclaredField("name");

//获取 name的 偏移地址
long nameOffset = unsafe.objectFieldOffset(name);

//直接修改 name属性
unsafe.putObject(user, nameOffset, "jim");

2.2 操作数组元素

操纵数组元素,主要涉及两个接口。

public native int arrayBaseOffset(Class arrayClass);
public native int arrayIndexScale(Class arrayClass);
  • arrayBaseOffset,获取数组第一个元素的 偏移地址。
  • arrayIndexScale,获取数组中元素的 增量地址。
  • arrayBaseOffset与arrayIndexScale配合起来使用,就可以定位数组中每个元素在内存中的位置

索引为 i 的元素可以使用如下代码定位:

//第一个元素的 偏移地址
int baseOffset = unsafe.arrayBaseOffset(array.getClass());

//增量
int indexScale = unsafe.arrayIndexScale(array.getClass());

//第i个元素
baseOffset + i*indexScale

在ReentrantLock的源码中我又发现了一种新的元素定位方式:

int ssfit = 31 - Integer.numberOfLeadingZeros(indexScale);
(i << ssfit) + baseOffset

查看Integer的源码,发现 numberOfLeadingZeros 方法里注释如下:

floor(log2(x)) = 31 - numberOfLeadingZeros(x)

如果这是一个int型数组,indexScale 等于4,那么 ssfit 值为2,所以乘以4和向左移2位,结果是一样的。

不过第1种方法比较容易理解。想象下,这是在c语言中,如果已知数组第1个元素指针,每个元素占用的字节数也已知,那么计算其它元素的位置就和第1种方法是一样的。

for (int i = 0; i < array.length; i++) {
    
            //unsafe.putInt(array, baseOffset + i*indexScale, i);
    
            unsafe.putInt(array, (i << ssfit) + baseOffset, i);
    
        }

所以,通过如上代码就可以更改数组的元素了。

2.3 线程挂起与恢复、CAS

如果我们使用 ReentrantLock 进行多线程开发,当一个线程抢占锁失败时,线程将被挂起,

  • 实现线程挂起的正是Unsafe类。

将一个线程进行挂起是通过park方法实现的,调用 park后,线程将一直

  • 阻塞直到超时或者中断等条件出现。

unpark可以终止一个挂起的线程,使其恢复正常。

整个并发框架中对线程的挂起操作被封装在 LockSupport类中,LockSupport类中有各种版本pack方法,但最终都调用了Unsafe.park()方法。

CAS,一种乐观锁机制,如果对象当前值和期望值一样,那么则将对象的值设置成新值。

  • 和悲观锁不一样,它不需要抢占锁,
  • 它是一种尝试性的,能有效地提高效率,它的全称是 compareAndSwap ,
  • 依赖于硬件的原子操作实现。详细的CAS请参考 线程安全 一文。

总结

之前也没有想过总结Unsafe类,不过在看 ConcurrentHashMap 源码时,涉及到 ReentrantLock 类,而 ReentrantLock 类中又涉及到了 Unsafe类,所以总结一下,现在全部打通关了,美滋滋。

Unsafe类中,还有一些有意思的方法没有介绍了,比如 allocateInstance,调用此方法可以生成一个新对象,有意思的是,生成新对象时可以避过此对象的构造函数。即使是反射,最后也是要调用对象的构造函数的。所以Unsafe这个能力还是非常有意思的。

ConcurrentHashMap 是如何保证线程安全的

01、前言

阅读此篇文章,你需要有以下知识基础

  • Java内存模型,可见性问题
  • CAS
  • HashMap底层原理

我们知道,在日常开发中使用的HashMap是线程不安全的,而线程安全类HashTable只是简单的在方法上加锁实现线程安全,效率低下,所以在线程安全的环境下我们通常会使用ConcurrentHashMap,但是又为何需要学习ConcurrentHashMap?用不就完事了?我认为学习其源码有两个好处:

  1. 更灵活的运用ConcurrentHashMap
  2. 欣赏并发编程大师Doug Lea的作品,源码中有很多值得我们学习的并发思想,要意识到,线程安全不仅仅只是加锁

我抛出以下问题:

  • ConcurrentHashMap是怎么做到线程安全的?

    • get方法 如何线程安全地 获取key、value?
    • put方法 如何线程安全地 设置key、value?
    • size方法如何 线程安全地 获取容器容量?
    • 底层数据结构扩容时 如何保证线程安全?
    • 初始化数据结构时 如何保证线程安全?
  • ConcurrentHashMap并发效率是如何提高的?

    • 和加锁相比较,为什么它比HashTable效率高?

接下来,带着问题来继续看下去,欣赏并发大师精妙绝伦的并发艺术作品(以下讨论基于JDK1.8)

02、相关概念

03、Amdahl定律

阿姆达尔定律

此节定律描述均来自《Java并发编程实战》一书

假设

  • F是必须被串行执行的部分,
  • N代表处理器数量,
  • Speedup代表加速比,可以简单理解为CPU使用率图片此公式告诉我们,
    • 当N趋近无限大,加速比最大趋近于1/F,
    • 假设我们的程序有50%的部分需要串行执行,就算处理器数量无限多,最高的加速比只能是2(20%的使用率),
    • 如果程序中仅有10%的部分需要串行执行,最高的加速比可以达到9.2(92%的使用率),
    • 但我们的程序或多或少都一定会有串行执行的部分,所以F不可能为0,所以,就算有无限多的CPU,加速比也不可能达到10(100%的使用率),

下面给一张图来表示串行执行部分占比不同对利用率的影响:图片由此我们可以看出,程序中的可伸缩性(提升外部资源即可提升并发性能的比率)是由程序中

  • 串行执行部分所影响的,而常见的串行执行有锁竞争(上下文切换消耗、等待、串行)等等,
  • 这给了我们一个启发,可以通过
    • 减少锁竞争来优化并发性能,而ConcurrentHashMap则使用了锁分段(减小锁范围)、
      • CAS(乐观锁,减小上下文切换开销,无阻塞)等等技术,

下面来具体看看吧

04、初始化数据结构时的线程安全

HashMap的底层数据结构这里简单带过一下,不做过多赘述:图片大致是以一个Node对象数组来存放数据,Hash冲突时会形成Node链表,

  • 在链表长度超过8,
  • Node数组超过64 时会将链表结构转换为红黑树,

Node对象:

static class Node<K,V> implements Map.Entry<K,V> {
  final int hash;
  final K key;
  volatile V val;
  volatile Node<K,V> next;
  ...
}

值得注意的是,value和next指针使用了

  • volatile来保证其可见性

在JDK1.8中,初始化ConcurrentHashMap的时候这个Node[]数组是还未初始化的,

  • 会等到第一次put方法调用时才初始化:
final V putVal(K key, V value, boolean onlyIfAbsent) {
        if (key == null || value == null) throw new NullPointerException();
        int hash = spread(key.hashCode());
        int binCount = 0;
        for (Node<K,V>[] tab = table;;) {
            Node<K,V> f; int n, i, fh;
            
            //判断Node数组为空
            if (tab == null || (n = tab.length) == 0)
                
                //初始化Node数组
                tab = initTable();
          ...
}

此时是会有并发问题的,如果多个线程同时调用initTable初始化Node数组怎么办?看看大师是如何处理的:

private final Node<K,V>[] initTable() {
  Node<K,V>[] tab; int sc;
    
  //每次循环都获取最新的Node数组引用
  while ((tab = table) == null || tab.length == 0) {
      
    //sizeCtl是一个标记位,若为-1也就是小于0,代表有线程在进行初始化工作了
    if ((sc = sizeCtl) < 0)
      //让出CPU时间片
      Thread.yield(); // lost initialization race; just spin
      
    //CAS操作,将本实例的sizeCtl变量设置为-1
    else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
        
      //如果CAS操作成功了,代表本线程将负责初始化工作
      try {
          
        //再检查一遍数组是否为空
        if ((tab = table) == null || tab.length == 0) {
            
          //在初始化Map时,sizeCtl代表数组大小,默认16
          //所以此时n默认为16
          int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
            
          @SuppressWarnings("unchecked")
          //Node数组
          Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
            
          //将其赋值给table变量
          table = tab = nt;
            
          //通过位运算,n减去n二进制右移2位,相当于乘以0.75
          //例如16经过运算为12,与乘0.75一样,只不过位运算更快
          sc = n - (n >>> 2);
        }
      } finally {
          
        //将计算后的sc(12)直接赋值给sizeCtl,表示达到12长度就扩容
        //由于这里只会有一个线程在执行,直接赋值即可,没有线程安全问题
        //只需要保证可见性
        sizeCtl = sc;
      }
      break;
    }
  }
  return tab;
}

table变量使用了volatile来保证每次获取到的都是最新写入的值

transient volatile Node<K,V>[] table;

05、总结

就算有多个线程同时进行put操作,在初始化数组时使用了乐观锁CAS操作来决定到底是哪个线程有资格进行初始化,其他线程均只能等待。

用到的并发技巧:

  • volatile变量(sizeCtl):它是一个标记位,用来告诉其他线程这个坑位有没有人在,其线程间的可见性由volatile保证。
  • CAS操作:CAS操作保证了设置sizeCtl标记位的原子性,保证了只有一个线程能设置成功

06、put操作的线程安全

直接看代码:

final V putVal(K key, V value, boolean onlyIfAbsent) {
    
  if (key == null || value == null) throw new NullPointerException();
    
  //对key的hashCode进行散列
  int hash = spread(key.hashCode());
  int binCount = 0;
    
  //一个无限循环,直到put操作完成后退出循环
  for (Node<K,V>[] tab = table;;) {
      
    Node<K,V> f; int n, i, fh;
      
    //当Node数组为空时进行初始化
    if (tab == null || (n = tab.length) == 0)
      tab = initTable();
      
    //Unsafe类volatile的方式取出hashCode散列后 通过与运算得出的Node数组下标值 对应的Node对象
    //此时的Node对象若为空,则代表还未有线程对此Node进行插入操作
    else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
        
      //直接CAS方式插入数据
      if (casTabAt(tab, i, null,
                   new Node<K,V>(hash, key, value, null)))
          
        //插入成功,退出循环
        break;                   // no lock when adding to empty bin
    }
    //查看是否在扩容,先不看,扩容再介绍
    else if ((fh = f.hash) == MOVED)
      //帮助扩容
      tab = helpTransfer(tab, f);
    else {
      V oldVal = null;
      //对Node对象进行加锁
      synchronized (f) {
        //二次确认此Node对象还是原来的那一个
        if (tabAt(tab, i) == f) {
            
          if (fh >= 0) {
            binCount = 1;
              
            //无限循环,直到完成put
            for (Node<K,V> e = f;; ++binCount) {
              K ek;
                
              //和HashMap一样,先比较hash,再比较equals
              if (e.hash == hash &&
                  ((ek = e.key) == key ||
                   (ek != null && key.equals(ek)))) {
                oldVal = e.val;
                if (!onlyIfAbsent)
                  e.val = value;
                break;
              }
              Node<K,V> pred = e;
              if ((e = e.next) == null) {
                  
                //和链表头Node节点不冲突,就将其初始化为新Node作为上一个Node节点的next
                //形成链表结构
                pred.next = new Node<K,V>(hash, key,
                                          value, null);
                break;
              }
            }
          }
          ...
}

值得关注的是tabAt(tab, i)方法,

  • 其使用Unsafe类 volatile的操作volatile式地查看值,
  • 保证每次获取到的值都是最新的:
static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
  return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
}

虽然上面的table变量加了volatile,但也只能保证其引用的可见性,并不能确保其数组中的对象是否是最新的,

  • 所以需要Unsafe类volatile式地拿到最新的Node

07、总结

图片由于其减小了锁的粒度,

  • 若Hash完美不冲突的情况下,

    • 可同时支持n个线程同时put操作,n为Node数组大小,在默认大小16下,可以支持最大同时16个线程无竞争同时操作且线程安全。
  • 当hash冲突严重时,

    • Node链表越来越长,将导致严重的锁竞争,此时会进行扩容,将Node进行再散列,下面会介绍扩容的线程安全性。

总结一下用到的并发技巧:

  1. 减小锁粒度:
    1. 将Node链表的头节点作为锁,若在默认大小16情况下,将有16把锁,大大减小了锁竞争(上下文切换),
    2. 就像开头所说,将串行的部分最大化缩小,在理想情况下线程的put操作都为并行操作。同时直接锁住头节点,保证了线程安全
  2. Unsafe的getObjectVolatile方法:此方法确保获取到的值为最新

08、扩容操作的线程安全

在扩容时,ConcurrentHashMap支持多线程并发扩容,

  • 在扩容过程中同时支持get查数据,
  • 若有线程put数据,还会帮助一起扩容,
    • 这种无阻塞算法,将并行最大化的设计,堪称一绝。

先来看看扩容代码实现:

private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {
  int n = tab.length, stride;
    
  //根据机器CPU核心数来计算,一条线程负责Node数组中多长的迁移量
  if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)
      
    //本线程分到的迁移量
    //假设为16(默认也为16)
    stride = MIN_TRANSFER_STRIDE; // subdivide range
    
  //nextTab若为空代表线程是第一个进行迁移的
  //初始化迁移后的新Node数组
  if (nextTab == null) {            // initiating
    try {
      @SuppressWarnings("unchecked")
        
      //这里n为旧数组长度,左移一位相当于乘以2
      //例如原数组长度16,新数组长度则为32
      Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];
      nextTab = nt;
    } catch (Throwable ex) {      // try to cope with OOME
      sizeCtl = Integer.MAX_VALUE;
      return;
    }
    //设置nextTable变量为新数组
    nextTable = nextTab;
    //假设为16
    transferIndex = n;
  }
  //假设为32
  int nextn = nextTab.length;
    
  //标示Node对象,此对象的hash变量为-1
  //在get或者put时若遇到此Node,则可以知道当前Node正在迁移
  //传入nextTab对象
  ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);
  
  boolean advance = true;
  boolean finishing = false; // to ensure sweep before committing nextTab
  for (int i = 0, bound = 0;;) {
    Node<K,V> f; int fh;
    while (advance) {
      int nextIndex, nextBound;
      //i为当前正在处理的Node数组下标,每次处理一个Node节点就会自减1
      if (--i >= bound || finishing)
        advance = false;
      //假设nextIndex=16
      else if ((nextIndex = transferIndex) <= 0) {
        i = -1;
        advance = false;
      }
      //由以上假设,nextBound就为0
      //且将nextIndex设置为0
      else if (U.compareAndSwapInt
               (this, TRANSFERINDEX, nextIndex,
                nextBound = (nextIndex > stride ?
                             nextIndex - stride : 0))) {
        //bound=0
        bound = nextBound;
        //i=16-1=15
        i = nextIndex - 1;
        advance = false;
      }
    }
    if (i < 0 || i >= n || i + n >= nextn) {
      int sc;
      if (finishing) {
        nextTable = null;
        table = nextTab;
        sizeCtl = (n << 1) - (n >>> 1);
        return;
      }
      if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {
        if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)
          return;
        finishing = advance = true;
        i = n; // recheck before commit
      }
    }
    //此时i=15,取出Node数组下标为15的那个Node,若为空则不需要迁移
    //直接设置占位标示,代表此Node已处理完成
    else if ((f = tabAt(tab, i)) == null)
      advance = casTabAt(tab, i, null, fwd);
    //检测此Node的hash是否为MOVED,MOVED是一个常量-1,也就是上面说的占位Node的hash
    //如果是占位Node,证明此节点已经处理过了,跳过i=15的处理,继续循环
    else if ((fh = f.hash) == MOVED)
      advance = true; // already processed
    else {
      //锁住这个Node
      synchronized (f) {
        //确认Node是原先的Node
        if (tabAt(tab, i) == f) {
          //ln为lowNode,低位Node,hn为highNode,高位Node
          //这两个概念下面以图来说明
          Node<K,V> ln, hn;
          if (fh >= 0) {
            //此时fh与原来Node数组长度进行与运算
            //如果高X位为0,此时runBit=0
            //如果高X位为1,此时runBit=1
            int runBit = fh & n;
            Node<K,V> lastRun = f;
            for (Node<K,V> p = f.next; p != null; p = p.next) {
              //这里的Node,都是同一Node链表中的Node对象
              int b = p.hash & n;
              if (b != runBit) {
                runBit = b;
                lastRun = p;
              }
            }
            //正如上面所说,runBit=0,表示此Node为低位Node
            if (runBit == 0) {
              ln = lastRun;
              hn = null;
            }
            else {
              //Node为高位Node
              hn = lastRun;
              ln = null;
            }
            for (Node<K,V> p = f; p != lastRun; p = p.next) {
              int ph = p.hash; K pk = p.key; V pv = p.val;
              //若hash和n与运算为0,证明为低位Node,原理同上
              if ((ph & n) == 0)
                ln = new Node<K,V>(ph, pk, pv, ln);
              //这里将高位Node与地位Node都各自组成了两个链表
              else
                hn = new Node<K,V>(ph, pk, pv, hn);
            }
            //将低位Node设置到新Node数组中,下标为原来的位置
            setTabAt(nextTab, i, ln);
            //将高位Node设置到新Node数组中,下标为原来的位置加上原Node数组长度
            setTabAt(nextTab, i + n, hn);
            //将此Node设置为占位Node,代表处理完成
            setTabAt(tab, i, fwd);
            //继续循环
            advance = true;
          }
          ....
        }
      }
    }
  }
}

这里说一下迁移时为什么要分一个ln(低位Node)、hn(高位Node),首先说一个现象:

我们知道,在put值的时候,首先会计算hash值,再散列到指定的Node数组下标中:

//根据key的hashCode再散列
int hash = spread(key.hashCode());
//使用(n - 1) & hash 运算,定位Node数组中下标值
(f = tabAt(tab, i = (n - 1) & hash);

其中n为Node数组长度,这里假设为16。

假设有一个key进来,它的散列之后的hash=9,那么它的下标值是多少呢?

  • (16 - 1)和 9 进行与运算 -> 0000 1111 和 0000 1001 结果还是 0000 1001 = 9

假设Node数组需要扩容,我们知道,扩容是将数组长度增加两倍,也就是32,那么下标值会是多少呢?

  • (32 - 1)和 9 进行与运算 -> 0001 1111 和 0000 1001 结果还是9

此时,我们把散列之后的hash换成20,那么会有怎样的变化呢?

  • (16 - 1)和 20 进行与运算 -> 0000 1111 和 0001 0100 结果是 0000 0100 = 4
  • (32 - 1)和 20 进行与运算 -> 0001 1111 和 0001 0100 结果是 0001 0100 = 20

此时细心的读者应该可以发现,如果hash在高X位为1,(X为数组长度的二进制-1的最高位),则扩容时是需要变换在Node数组中的索引值的,不然就hash不到,丢失数据,所以这里在迁移的时候将高X位为1的Node分类为hn,将高X位为0的Node分类为ln。

回到代码中:

for (Node<K,V> p = f; p != lastRun; p = p.next) {
  int ph = p.hash; 
  K pk = p.key; 
  V pv = p.val;
  if ((ph & n) == 0)
    ln = new Node<K,V>(ph, pk, pv, ln);
  else
    hn = new Node<K,V>(ph, pk, pv, hn);
}

这个操作将高低位组成了两条链表结构,由下图所示:图片然后将其CAS操作放入新的Node数组中:

setTabAt(nextTab, i, ln);
setTabAt(nextTab, i + n, hn);

其中,低位链表放入原下标处,而高位链表则需要加上原Node数组长度,其中为什么不多赘述,上面已经举例说明了,这样就可以保证高位Node在迁移到新Node数组中依然可以使用hash算法散列到对应下标的数组中去了。

最后将原Node数组中对应下标Node对象设置为fwd标记Node,表示该节点迁移完成,到这里,一个节点的迁移就完成了,将进行下一个节点的迁移,也就是i-1=14下标的Node节点。

09、扩容时的get操作

假设Node下标为16的Node节点正在迁移,突然有一个线程进来调用get方法,正好key又散列到下标为16的节点,此时怎么办?

public V get(Object key) {
  Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
  int h = spread(key.hashCode());
  if ((tab = table) != null && (n = tab.length) > 0 &&
      (e = tabAt(tab, (n - 1) & h)) != null) {
    if ((eh = e.hash) == h) {
      if ((ek = e.key) == key || (ek != null && key.equals(ek)))
        return e.val;
    }
    //假如Node节点的hash值小于0
    //则有可能是fwd节点
    else if (eh < 0)
      //调用节点对象的find方法查找值
      return (p = e.find(h, key)) != null ? p.val : null;
    while ((e = e.next) != null) {
      if (e.hash == h &&
          ((ek = e.key) == key || (ek != null && key.equals(ek))))
        return e.val;
    }
  }
  return null;
}

重点看有注释的那两行,在get操作的源码中,会判断Node中的hash是否小于0,是否还记得我们的占位Node,其hash为MOVED,为常量值-1,所以此时判断线程正在迁移,委托给fwd占位Node去查找值:

//内部类 ForwardingNode中
Node<K,V> find(int h, Object k) {
  // loop to avoid arbitrarily deep recursion on forwarding nodes
  // 这里的查找,是去新Node数组中查找的
  // 下面的查找过程与HashMap查找无异,不多赘述
  outer: for (Node<K,V>[] tab = nextTable;;) {
    Node<K,V> e; int n;
    if (k == null || tab == null || (n = tab.length) == 0 ||
        (e = tabAt(tab, (n - 1) & h)) == null)
      return null;
    for (;;) {
      int eh; K ek;
      if ((eh = e.hash) == h &&
          ((ek = e.key) == k || (ek != null && k.equals(ek))))
        return e;
      if (eh < 0) {
        if (e instanceof ForwardingNode) {
          tab = ((ForwardingNode<K,V>)e).nextTable;
          continue outer;
        }
        else
          return e.find(h, k);
      }
      if ((e = e.next) == null)
        return null;
    }
  }
}

到这里应该可以恍然大悟了,之所以占位Node需要保存新Node数组的引用也是因为这个,它可以支持在迁移的过程中照样不阻塞地查找值,可谓是精妙绝伦的设计。

10、多线程协助扩容

在put操作时,假设正在迁移,正好有一个线程进来,想要put值到迁移的Node上,怎么办?

final V putVal(K key, V value, boolean onlyIfAbsent) {
  if (key == null || value == null) throw new NullPointerException();
  int hash = spread(key.hashCode());
  int binCount = 0;
  for (Node<K,V>[] tab = table;;) {
    Node<K,V> f; int n, i, fh;
    if (tab == null || (n = tab.length) == 0)
      tab = initTable();
    else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
      if (casTabAt(tab, i, null,
                   new Node<K,V>(hash, key, value, null)))
        break;                   // no lock when adding to empty bin
    }
    //若此时发现了占位Node,证明此时HashMap正在迁移
    else if ((fh = f.hash) == MOVED)
      //进行协助迁移
      tab = helpTransfer(tab, f);
     ...
}
final Node<K,V>[] helpTransfer(Node<K,V>[] tab, Node<K,V> f) {
  Node<K,V>[] nextTab; int sc;
  if (tab != null && (f instanceof ForwardingNode) &&
      (nextTab = ((ForwardingNode<K,V>)f).nextTable) != null) {
    int rs = resizeStamp(tab.length);
    while (nextTab == nextTable && table == tab &&
           (sc = sizeCtl) < 0) {
      if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
          sc == rs + MAX_RESIZERS || transferIndex <= 0)
        break;
      //sizeCtl加一,标示多一个线程进来协助扩容
      if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) {
        //扩容
        transfer(tab, nextTab);
        break;
      }
    }
    return nextTab;
  }
  return table;
}

此方法涉及大量复杂的位运算,这里不多赘述,只是简单的说几句,此时sizeCtl变量用来标示HashMap正在扩容,当其准备扩容时,会将sizeCtl设置为一个负数,(例如数组长度为16时)其二进制表示为:

1000 0000 0001 1011 0000 0000 0000 0010

无符号位为1,表示负数。其中高16位代表数组长度的一个位算法标示(有点像epoch的作用,表示当前迁移朝代为数组长度X),低16位表示有几个线程正在做迁移,刚开始为2,接下来自增1,线程迁移完会进行减1操作,也就是如果低十六位为2,代表有一个线程正在迁移,如果为3,代表2个线程正在迁移以此类推…

只要数组长度足够长,就可以同时容纳足够多的线程来一起扩容,最大化并行任务,提高性能。

11、在什么情况下会进行扩容操作?

  • 在put值时,发现Node为占位Node(fwd)时,会协助扩容

  • 在新增节点后,检测到链表长度大于8时

    final V putVal(K key, V value, boolean onlyIfAbsent) {
      ...
     if (binCount != 0) {
        //TREEIFY_THRESHOLD=8,当链表长度大于8时
       if (binCount >= TREEIFY_THRESHOLD)
          //调用treeifyBin方法
         treeifyBin(tab, i);
       if (oldVal != null)
         return oldVal;
       break;
     }
      ...
    }
    

    treeifyBin方法会将链表转换为红黑树,增加查找效率,但在这之前,会检查数组长度,若小于64,则会优先做扩容操作:

    private final void treeifyBin(Node<K,V>[] tab, int index) {
      Node<K,V> b; int n, sc;
      if (tab != null) {
        //MIN_TREEIFY_CAPACITY=64
        //若数组长度小于64,则先扩容
        if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
          //扩容
          tryPresize(n << 1);
        else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
          synchronized (b) {
            //...转换为红黑树的操作
          }
        }
      }
    }
    
  • 在每次新增节点之后,都会调用addCount方法,检测Node数组大小是否达到阈值:

    final V putVal(K key, V value, boolean onlyIfAbsent) {
      ...
        //在下面一节会讲到,此方法统计容器元素数量
        addCount(1L, binCount);
      return null;
    }
    
    private final void addCount(long x, int check) {
      CounterCell[] as; long b, s;
      if ((as = counterCells) != null ||
          !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
        //统计元素个数的操作...
      }
      if (check >= 0) {
        Node<K,V>[] tab, nt; int n, sc;
        //元素个数达到阈值,进行扩容
        while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&
               (n = tab.length) < MAXIMUM_CAPACITY) {
          int rs = resizeStamp(n);
          //发现sizeCtl为负数,证明有线程正在迁移
          if (sc < 0) {
            if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||
                sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||
                transferIndex <= 0)
              break;
            if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))
              transfer(tab, nt);
          }
          //不为负数,则为第一个迁移的线程
          else if (U.compareAndSwapInt(this, SIZECTL, sc,
                                       (rs << RESIZE_STAMP_SHIFT) + 2))
            transfer(tab, null);
          s = sumCount();
        }
      }
    }
    

12、总结

ConcurrentHashMap运用各类CAS操作,将扩容操作的并发性能实现最大化,

  • 在扩容过程中,就算有线程调用get查询方法,也可以安全的查询数据,
  • 若有线程进行put操作,还会协助扩容,利用sizeCtl标记位和各种volatile变量进行CAS操作达到多线程之间的通信、协助,
  • 在迁移过程中只锁一个Node节点,即保证了线程安全,又提高了并发性能。

13、统计容器大小的线程安全

ConcurrentHashMap在每次put操作之后都会调用addCount方法,此方法用于统计容器大小且检测容器大小是否达到阈值,若达到阈值需要进行扩容操作,这在上面也是有提到的。这一节重点讨论容器大小的统计是如何做到线程安全且并发性能不低的。

大部分的单机数据查询优化方案都会降低并发性能,就像缓存的存储,在多线程环境下将有并发问题,所以会产生并行或者一系列并发冲突锁竞争的问题,降低了并发性能。类似的,热点数据也有这样的问题,在多线程并发的过程中,热点数据(频繁被访问的变量)是在每一个线程中几乎或多或少都会访问到的数据,这将增加程序中的串行部分,回忆一下开头所描述的,程序中的串行部分将影响并发的可伸缩性,使并发性能下降,这通常会成为并发程序性能的瓶颈。而在ConcurrentHashMap中,如何快速的统计容器大小更是一个很重要的议题,因为容器内部需要依靠容器大小来考虑是否需要扩容,而在客户端而言需要调用此方法来知道容器有多少个元素,如果处理不好这种热点数据,并发性能将因为这个短板整体性能下降。

试想一下,如果是你,你会如何设计这种热点数据?是加锁,还是进行CAS操作?进入ConcurrentHashMap中,看看大师是如何巧妙的运用了并发技巧,提高热点数据的并发性能。

先用图的方式来看看大致的实现思路:图片

@sun.misc.Contended static final class CounterCell {
  volatile long value;
  CounterCell(long x) { value = x; }
}

这是一个粗略的实现,在设计中,使用了分而治之的思想,将每一个计数都分散到各个countCell对象里面(下面称之为桶),使竞争最小化,又使用了CAS操作,就算有竞争,也可以对失败了的线程进行其他的处理。乐观锁的实现方式与悲观锁不同之处就在于乐观锁可以对竞争失败了的线程进行其他策略的处理,而悲观锁只能等待锁释放,所以这里使用CAS操作对竞争失败的线程做了其他处理,很巧妙的运用了CAS乐观锁。

下面看看具体的代码实现吧:

//计数,并检查长度是否达到阈值
private final void addCount(long x, int check) {
  //计数桶
  CounterCell[] as; long b, s;
  //如果counterCells不为null,则代表已经初始化了,直接进入if语句块
  //若竞争不严重,counterCells有可能还未初始化,为null,先尝试CAS操作递增baseCount值
  if ((as = counterCells) != null ||
      !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
    //进入此语句块有两种可能
    //1.counterCells被初始化完成了,不为null
    //2.CAS操作递增baseCount值失败了,说明有竞争
    CounterCell a; long v; int m;
    //标志是否存在竞争
    boolean uncontended = true;
    //1.先判断计数桶是否还没初始化,则as=null,进入语句块
    //2.判断计数桶长度是否为空或,若是进入语句块
    //3.这里做了一个线程变量随机数,与上桶大小-1,若桶的这个位置为空,进入语句块
    //4.到这里说明桶已经初始化了,且随机的这个位置不为空,尝试CAS操作使桶加1,失败进入语句块
    if (as == null || (m = as.length - 1) < 0 ||
        (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
        !(uncontended =
          U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
      fullAddCount(x, uncontended);
      return;
    }
    if (check <= 1)
      return;
    //统计容器大小
    s = sumCount();
  }
  ...
}

14、假设当前线程为第一个put的线程

先假设当前Map还未被put数据,则addCount一定没有被调用过,当前线程第一个调用addCount方法,则此时countCell一定没有被初始化,为null,则进行如下判断:

if ((as = counterCells) != null ||
      !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) 

这里的if判断一定会走第二个判断,先CAS增加变量baseCount的值:

private transient volatile long baseCount;

这个值有什么用呢?我们看看统计容器大小的方法sumCount:

final long sumCount() {
  //获取计数桶
  CounterCell[] as = counterCells; CounterCell a;
  //获取baseCount,赋值给sum总数
  long sum = baseCount;
  //若计数桶不为空,统计计数桶内的值
  if (as != null) {
    for (int i = 0; i < as.length; ++i) {
      //遍历计数桶,将value值相加
      if ((a = as[i]) != null)
        sum += a.value;
    }
  }
  return sum;
}

这个方法的大体思路与我们开头那张图差不多,容器的大小其实是分为两部分,开头只说了计数桶的那部分,其实还有一个baseCount,在线程没有竞争的情况下的统计值,换句话说,在增加容量的时候其实是先去做CAS递增baseCount的。

由此可见,统计容器大小其实是用了两种思路:

  1. CAS方式直接递增:在线程竞争不大的时候,直接使用CAS操作递增baseCount值即可,这里说的竞争不大指的是CAS操作不会失败的情况
  2. 分而治之桶计数:若出现了CAS操作失败的情况,则证明此时有线程竞争了,计数方式从CAS方式转变为分而治之的桶计数方式

15、出现了线程竞争导致CAS失败

此时出现了竞争,则不会再用CAS方式来计数了,直接使用桶方式,从上面的addCount方法可以看出来,此时的countCell是为空的,最终一定会进入fullAddCount方法来进行初始化桶:

   private final void fullAddCount(long x, boolean wasUncontended) {
        int h;
        if ((h = ThreadLocalRandom.getProbe()) == 0) {
            ThreadLocalRandom.localInit();      // force initialization
            h = ThreadLocalRandom.getProbe();
            wasUncontended = true;
        }
        boolean collide = false;                // True if last slot nonempty
        for (;;) {
            CounterCell[] as; CounterCell a; int n; long v;
            ...
            //如果计数桶!=null,证明已经初始化,此时不走此语句块
            if ((as = counterCells) != null && (n = as.length) > 0) {
              ...
            }
            //进入此语句块进行计数桶的初始化
            //CAS设置cellsBusy=1,表示现在计数桶Busy中...
            else if (cellsBusy == 0 && counterCells == as &&
                     U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
                //若有线程同时初始化计数桶,由于CAS操作只有一个线程进入这里
                boolean init = false;
                try {                           // Initialize table
                    //再次确认计数桶为空
                    if (counterCells == as) {
                        //初始化一个长度为2的计数桶
                        CounterCell[] rs = new CounterCell[2];
                        //h为一个随机数,与上1则代表结果为0、1中随机的一个
                        //也就是在0、1下标中随便选一个计数桶,x=1,放入1的值代表增加1个容量
                        rs[h & 1] = new CounterCell(x);
                        //将初始化好的计数桶赋值给ConcurrentHashMap
                        counterCells = rs;
                        init = true;
                    }
                } finally {
                    //最后将busy标识设置为0,表示不busy了
                    cellsBusy = 0;
                }
                if (init)
                    break;
            }
            //若有线程同时来初始化计数桶,则没有抢到busy资格的线程就先来CAS递增baseCount
            else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
                break;                          // Fall back on using base
        }
    }

到这里就完成了计数桶的初始化工作,在之后的计数都将会使用计数桶方式来统计总数

16、计数桶扩容

从上面的分析中我们知道,计数桶初始化之后长度为2,在竞争大的时候肯定是不够用的,所以一定有计数桶的扩容操作,所以现在就有两个问题了:

  1. 什么条件下会进行计数桶的扩容?
  2. 扩容操作是怎么样的?

假设此时是用计数桶方式进行计数:

private final void addCount(long x, int check) {
  CounterCell[] as; long b, s;
  if ((as = counterCells) != null ||
      !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {
    CounterCell a; long v; int m;
    boolean uncontended = true;
    //此时显然会在计数桶数组中随机选一个计数桶
    //然后使用CAS操作将此计数桶中的value+1
    if (as == null || (m = as.length - 1) < 0 ||
        (a = as[ThreadLocalRandom.getProbe() & m]) == null ||
        !(uncontended =
          U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {
      //若CAS操作失败,证明有竞争,进入fullAddCount方法
      fullAddCount(x, uncontended);
      return;
    }
    if (check <= 1)
      return;
    s = sumCount();
  }
  ...
}

进入fullAddCount方法:

private final void fullAddCount(long x, boolean wasUncontended) {
  int h;
  if ((h = ThreadLocalRandom.getProbe()) == 0) {
    ThreadLocalRandom.localInit();      // force initialization
    h = ThreadLocalRandom.getProbe();
    wasUncontended = true;
  }
  boolean collide = false;                // True if last slot nonempty
  for (;;) {
    CounterCell[] as; CounterCell a; int n; long v;
    //计数桶初始化好了,一定是走这个if语句块
    if ((as = counterCells) != null && (n = as.length) > 0) {
      //从计数桶数组随机选一个计数桶,若为null表示该桶位还没线程递增过
      if ((a = as[(n - 1) & h]) == null) {
        //查看计数桶busy状态是否被标识
        if (cellsBusy == 0) {            // Try to attach new Cell
          //若不busy,直接new一个计数桶
          CounterCell r = new CounterCell(x); // Optimistic create
          //CAS操作,标示计数桶busy中
          if (cellsBusy == 0 &&
              U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
            boolean created = false;
            try {               // Recheck under lock
              CounterCell[] rs; int m, j;
              //在锁下再检查一次计数桶为null
              if ((rs = counterCells) != null &&
                  (m = rs.length) > 0 &&
                  rs[j = (m - 1) & h] == null) {
                //将刚刚创建的计数桶赋值给对应位置
                rs[j] = r;
                created = true;
              }
            } finally {
              //标示不busy了
              cellsBusy = 0;
            }
            if (created)
              break;
            continue;           // Slot is now non-empty
          }
        }
        collide = false;
      }
      else if (!wasUncontended)       // CAS already known to fail
        wasUncontended = true;      // Continue after rehash
      //走到这里代表计数桶不为null,尝试递增计数桶
      else if (U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))
        break;
      else if (counterCells != as || n >= NCPU)
        collide = false;            // At max size or stale
      //若CAS操作失败了,到了这里,会先进入一次,然后再走一次刚刚的for循环
      //若是第二次for循环,collide=true,则不会走进去
      else if (!collide)
        collide = true;
      //计数桶扩容,一个线程若走了两次for循环,也就是进行了多次CAS操作递增计数桶失败了
      //则进行计数桶扩容,CAS标示计数桶busy中
      else if (cellsBusy == 0 &&
               U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
        try {
          //确认计数桶还是同一个
          if (counterCells == as) {// Expand table unless stale
            //将长度扩大到2倍
            CounterCell[] rs = new CounterCell[n << 1];
            //遍历旧计数桶,将引用直接搬过来
            for (int i = 0; i < n; ++i)
              rs[i] = as[i];
            //赋值
            counterCells = rs;
          }
        } finally {
          //取消busy状态
          cellsBusy = 0;
        }
        collide = false;
        continue;                   // Retry with expanded table
      }
      h = ThreadLocalRandom.advanceProbe(h);
    }
    else if (cellsBusy == 0 && counterCells == as &&
             U.compareAndSwapInt(this, CELLSBUSY, 0, 1)) {
      //初始化计数桶...
    }
    else if (U.compareAndSwapLong(this, BASECOUNT, v = baseCount, v + x))
      break;                          // Fall back on using base
  }
}

看到这里,想必已经可以解决上面两个问题了:

  1. 什么条件下会进行计数桶的扩容?

    答:在CAS操作递增计数桶失败了3次之后,会进行扩容计数桶操作,注意此时同时进行了两次随机定位计数桶来进行CAS递增的,所以此时可以保证大概率是因为计数桶不够用了,才会进行计数桶扩容

  2. 扩容操作是怎么样的?

    答:计数桶长度增加到两倍长度,数据直接遍历迁移过来,由于计数桶不像HashMap数据结构那么复杂,有hash算法的影响,加上计数桶只是存放一个long类型的计数值而已,所以直接赋值引用即可。

17、总结

个人感觉,

  • 统计容器大小的线程安全与

  • 扩容ConcurrentHashMap这两个算得上ConcurrentHashMap中最聪明的两个并发设计了,

  • 阅读此源码的我看到这两个操作的设计,都忍不住拍手叫绝,我想,这或许也是一个看源码的乐趣吧,站在巨人的肩膀看巨人的思想。

总结一下计数中用到的并发技巧:

  1. 利用CAS递增baseCount值来感知是否存在线程竞争,若竞争不大直接CAS递增baseCount值即可,性能与直接baseCount++差别不大
  2. 若存在线程竞争,则初始化计数桶,若此时初始化计数桶的过程中也存在竞争,多个线程同时初始化计数桶,则没有抢到初始化资格的线程直接尝试CAS递增baseCount值的方式完成计数,最大化利用了线程的并行。此时使用计数桶计数,分而治之的方式来计数,此时两个计数桶最大可提供两个线程同时计数,同时使用CAS操作来感知线程竞争,若两个桶情况下CAS操作还是频繁失败(失败3次),则直接扩容计数桶,变为4个计数桶,支持最大同时4个线程并发计数,以此类推…同时使用位运算和随机数的方式"负载均衡"一样的将线程计数请求接近均匀的落在各个计数桶中。

18、get操作的线程安全

对于get操作,其实没有线程安全的问题,只有可见性的问题,只需要确保get的数据是线程之间可见的即可:

public V get(Object key) {
  Node<K,V>[] tab; Node<K,V> e, p; int n, eh; K ek;
  int h = spread(key.hashCode());
  //此过程与HashMap的get操作无异,不多赘述
  if ((tab = table) != null && (n = tab.length) > 0 &&
      (e = tabAt(tab, (n - 1) & h)) != null) {
    if ((eh = e.hash) == h) {
      if ((ek = e.key) == key || (ek != null && key.equals(ek)))
        return e.val;
    }
    //当hash<0,有可能是在迁移,使用fwd占位Node去查找新table中的数据
    else if (eh < 0)
      return (p = e.find(h, key)) != null ? p.val : null;
    while ((e = e.next) != null) {
      if (e.hash == h &&
          ((ek = e.key) == key || (ek != null && key.equals(ek))))
        return e.val;
    }
  }
  return null;
}

在get操作中除了增加了迁移的判断以外,基本与HashMap的get操作无异,这里不多赘述,值得一提的是这里使用了tabAt方法Unsafe类volatile的方式去获取Node数组中的Node,保证获得到的Node是最新的

static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
  return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
}

19、JDK1.7与1.8的不同实现

JDK1.7的ConcurrentHashMap底层数据结构:图片其中1.7的实现也同样采用了分段锁的技术,只不过多个一个segment,一个segment里对应一个小HashMap,其中segment继承了ReentrantLock,充当了锁的角色,一把锁锁一个小HashMap(相当于多个Node),

  • 从1.8的实现来看, 锁的粒度从多个Node级别又减小到一个Node级别,再度减小锁竞争,减小程序同步的部分。

20、总结

不得不说,大师将CAS操作运用的淋漓尽致,相信理解了以上源码的读者也可以学习到大师所运用的并发技巧,不仅仅是在ConcurrentHashMap中,其实在大部分JUC的源码中很多并发思想很值得我们去阅读、学习。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
机器学习是一种人工智能(AI)的子领域,致力于研究如何利用数据和算法让计算机系统具备学习能力,从而能够自动地完成特定任务或者改进自身性能。机器学习的核心思想是让计算机系统通过学习数据中的模式和规律来实现目标,而不需要显式地编程。 机器学习应用非常广泛,包括但不限于以下领域: 图像识别和计算机视觉: 机器学习在图像识别、目标检测、人脸识别、图像分割等方面有着广泛的应用。例如,通过深度学习技术,可以训练神经网络来识别图像中的对象、人脸或者场景,用于智能监控、自动驾驶、医学影像分析等领域。 自然语言处理: 机器学习在自然语言处理领域有着重要的应用,包括文本分、情感分析、机器翻译、语音识别等。例如,通过深度学习模型,可以训练神经网络来理解和生成自然语言,用于智能客服、智能助手、机器翻译等场景。 推荐系统: 推荐系统利用机器学习算法分析用户的行为和偏好,为用户推荐个性化的产品或服务。例如,电商网站可以利用机器学习算法分析用户的购买历史和浏览行为,向用户推荐感兴趣的商品。 预测和预测分析: 机器学习可以用于预测未来事件的发生概率或者趋势。例如,金融领域可以利用机器学习算法进行股票价格预测、信用评分、欺诈检测等。 医疗诊断和生物信息学: 机器学习在医疗诊断、药物研发、基因组学等领域有着重要的应用。例如,可以利用机器学习算法分析医学影像数据进行疾病诊断,或者利用机器学习算法分析基因数据进行疾病风险预测。 智能交通和物联网: 机器学习可以应用于智能交通系统、智能城市管理和物联网等领域。例如,可以利用机器学习算法分析交通数据优化交通流量,或者利用机器学习算法分析传感器数据监测设备状态。 以上仅是机器学习应用的一部分,随着机器学习技术的不断发展和应用场景的不断拓展,机器学习在各个领域都有着重要的应用价值,并且正在改变我们的生活和工作方式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值