1. 如何提高锁的性能
a. 减小线程持有锁的时间,可降低锁冲突的可能性
b. 减小锁的粒度,即缩小锁定的范围. 比如ConcurrentHashMap,它内部进一步细分了若干小的map,称之为segment(段), 当需要在CHM中增加时,先根据hashcode得到该项应该存放于哪个段中,然后对该段加锁. 假若存入的表项不在同一个段中,即线程间就做到真正并行存储了.
c. 使用读写锁替换独占锁 这是减小锁粒度的一种特殊情况,上面提到的是通过分割数据结构实现的. 读写锁是对系统功能点的分割.
d. 锁分离 对读写锁的思想的进一步延伸. 比如在LinkedBlockingQueue中take()和put()分别用了不同的锁takeLock和putLock. 因此这两个函数就相互独立不存在锁竞争关系
e. 锁粗化 听起来和前面矛盾,但凡事有度,频繁的锁请求释放反而会影响性能,合理的代码块合并也是很有必要的
2. JVM对锁的优化
a. 锁偏向
b. 轻量级锁
c. 自旋锁 jvm为了避免线程真实的在操作系统层面挂起,消耗过大 会下一个赌注:认为在不久的将来当前线程可获得锁, jvm会让当前线程做几个空循环(自旋),经过若干次循环,如果能获得锁则顺利进入临界区,否则才会真正的挂起
d. 锁消除 jvm在jit编译时对上下文进行扫描. 依赖于逃逸分析技术, 需要在-sever模式下运行, 可使用-XX:+DoEscapeAnalysis参数打开逃逸分析
3. ThreadLocal
4. 无锁: 不用锁的并发策略: CAS 比较交换. CAS(V,E,N) 这仨参数分别表示要更新的变量,这个变量的期望值,新值.
无锁的线程安全整数 AtomicInteger, 内部直接使用cas操作的线程安全的类型(底层用的cas等cpu指令)
AtomicReference同样利用cas. 但有可能发生ABA的问题. 故AtomicStampedReference可补足
还有AtomicIntegerArray ...之类的cas安全数组
AtomicInteger(Long/Reference)FiledUpdater 可以让普通变量也享受cas操作带来的安全性
一个用无锁方式实现的Vector P171
线程间互相帮助 SynchronousQueue的实现 P176
5. 死锁分析